Facebook представил технологию звукового описания фотографий для незрячих пользователей

Разработчики Facebook создали технологию автоматического альтернативного текста, с помощью которого слепые и слабовидящие пользователи смогут услышать описание изображений. В заявлении компании говорится, что новая функция в приложении для iOS умеет различать предметы, ландшафты, людей разных возрастов, животных, еду и многое другое.

Кроме того, искусственный интеллект сообщает, когда фотография была размещена в сети, кто ее автор, как подписан снимок, сколько «лайков» набрала публикация, сколько людей ее прокомментировали или поделились ею.

«Когда слепые или слабовидящие люди заходят в Интернет, то используют программу чтения с экрана, которая преобразует текст в озвучиваемые слова. Однако до сих пор программа не была способна «передать» фотоизображение. Теперь технология искусственного интеллекта позволяет описывать фотографию словами», — написал создатель Facebook Марк Цукерберг на своей странице.

We just launched a tool that uses artificial intelligence to help people who are blind experience photos on…

Опубликовано Mark Zuckerberg5 апреля 2016 г.

По словам Цукерберга, это нововведение «важный шаг к тому, чтобы обеспечить каждого человека равным доступом к информации и возможностью общения с другими людьми».

Пока что технология альтернативного текста доступна для англоязычных пользователей устройств с iOS в США, Великобритании, Канаде, Австралии и Новой Зеландии. Запустить разработки для других языков, платформ и регионов планируется в течение ближайших недель.

В прошлом году социальная сеть Facebook начала тестирование инструментов для благотворительности.


В материале используются ссылки на публикации соцсетей Instagram и Facebook, а также упоминаются их названия. Эти веб-ресурсы принадлежат компании Meta Platforms Inc. — она признана в России экстремистской организацией и запрещена.

Все новости

Новости

Текст
0 из 0

Подпишитесь на субботнюю рассылку лучших материалов «Таких дел»

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: