Акцент на конференцията бе и една
нова функционалност, която предстои да бъде реализирана в
Android Q с наименование "
Live Caption". При нея в
реално време на екрана ще се възпроизвеждат
субтитри, като с помощта на
AI ще може да се реализира и
превод - както на видеа, така и при телефонни обаждания, видео чат, или друга медия на телефона.
Съществено да се отбележи е, че
функционалността ще бъде достъпна за ограничен кръг устройства, тъй като ще изисква
голямо количество памет. Списъкът с устройствата, които ще поддържат
Live Caption ще бъде представен на по-късен етап, малко преди да стартира Android Q.
Първоначалната идея е била да бъде в помощ на хора, които имат проблеми със слуха, или такива, които желаят да изгледат видео, но нямат възможност да ползват слушалки. Хубаво е, че са развили идеята, още повече и с опция за превод. Тук вече опираме и до поддържани езици и дикция на говорещия.
Субтитрите се възпроизвеждат директно на устройството чрез
machine learning, така, че
не е необходимо да се изпращат данни до облак. Текстът се вижда в черен правоъгълник и
може да се мести навсякъде по екрана. Функцията работи и при
намален или изключен звук, тъй като анализира източника на аудиото.
Текстът няма да може да се съхранява (за сега
)