От чего нейросети избавят мир

Искусственные нейронные сети — математические модели, вдохновленные организацией нейронов в головном мозге. В новостях часто появляются сообщения о том, что нейросети написали книгу или песню, но вряд ли в ближайшее время машина заменит писателей и музыкантов. Зато в других направлениях искусственный интеллект уже меняет мир — в том числе избавляет от того, что еще недавно казалось естественным.

Вот несколько явлений, о которых можно будет забыть в ближайшем будущем.

1. Видео в качестве доказательства

Мы привыкли доверять тому, что видим на записях с камер: если фотографии легко подделать с помощью графических редакторов, то сфабриковать видео куда сложнее. Однако метод Deepfake позволяет с помощью нейросетей изменять элементы изображений (в том числе видео).

В основе лежат GAN — генеративные состязательные сети: одна нейросеть создает поддельное видео, а другая пытается понять, создано оно человеком или нейросетью. Когда вторая нейросеть не распознает обмана, получается реалистичная запись. Бум Deepfake пришелся на 2017 год — в основном с его помощью на видео заменяли одни лица на другие (например, известных актрис «вклеивали» в видео для взрослых).

Для того чтобы фейк выглядел достоверно, машине нужно обучиться на большом количестве фотографий человека (желательно с разных ракурсов), поэтому обычные люди с десятью фото в соцсетях вряд ли станут жертвами подделок в ближайшее время. Зато записи со знаменитостями можно сфабриковать уже сегодня — например, создать видео, где известный политик кого-то оскорбляет или грозит войной. Некоторые искусственные записи с Бараком Обамой сложного отличить от настоящих, но часто Deepfake используется ради шутки — отдельной популярностью пользуется Николас Кейдж, которого делают участником разных фильмов:

Это значит, что скоро видео перестанут быть надежным доказательством.

2. Спам и оскорбления в интернете

Сайты, на которых пользователи могут публиковать контент и оставлять комментарии, рано или поздно сталкиваются с проблемой спама, оскорблений и мошенничества. Разработчики Яндекса научили нейросети бороться с нежелательным контентам на таких сервисах.

Из-за того, что русский мат и ругательства очень разнообразны, недостаточно просто заблокировать упоминание «плохих» слов. Поэтому машина сначала сама сгенерировала множество вариантов искаженных ругательств (в том числе с переставленными буквами или «запиканными» звездочками символами) — и уже на основе этих примеров научилась вычислять недопустимую лексику, даже если комментатор постарался ее замаскировать.

Сложность в борьбе со спамом была в другом: обычно мошенники распространяют немного видоизмененные тексты, чтобы их не удалили автоматически. Поэтому нейросеть научили делить комментарии на короткие последовательности символов и сравнивать уже их. Теперь, если одно сообщение помечается как спам, нейросеть вычисляет все похожие комментарии и удаляет их тоже.

Конечно, в сложных ситуациях финальное решение до сих пор выносит человек, но в некоторых сервисах Яндекса машина принимает решение относительно 90% контента. Разработчики рассказывают, что продолжают совершенствовать работу машины.

3. Стоковые фото

Основная проблема использования фотографий в интернете — авторские права. Для того, чтобы легально разместить чье-то фото в качестве иллюстрации, нужно купить права на фото. Но благодаря нейросетям можно использовать изображения, сгенерированные машиной.

Алгоритмы компании NVIDIA позволяют с помощью нейросетей бесконечно создавать реалистичные фотографии (пейзажи, изображения машин и интерьеров), которые можно использовать вместо стоковых фото.

Лучше всего нейросетям пока удаются портреты людей: на сайте Thispersondoesnotexist.com («Этого человека не существует») публикуются фото людей, сгенерированные нейросетями — в большинстве случаев их невозможно отличить от настоящих. Хуже дела обстоят, например, с изображениями котов — тела животных на искусственных фотографиях иногда выглядят жутко, но и здесь нейросети совершенствуются.

4. Аварии

В основе систем, управляющих беспилотными автомобилями, лежат в том числе нейросети, именно они позволяют машине оценивать ситуацию на дороге. Искусственный интеллект получает данные с датчиков, установленных на корпусе автомобиля, и анализирует их. Он в режиме реального времени создает трехмерную модель окружающего пространства, выделяет в ней дорожные знаки, светофоры и других участников движения, предсказывает поведение машин и пешеходов — и уже исходя из этого строит маршрут.

Распознавать объекты нейросети научились благодаря людям: если перед входом на сайт вам хоть раз приходилось отмечать на картинке знаки или светофоры, значит вы участвовали в обучении искусственного интеллекта. Кроме того обучением нейросетей занимаются толокеры, пользователи сервиса Яндекс.Толока.

Пока рано говорить о том, что беспилотные автомобили скоро заменят человека на дороге, но разработчики к этому стремятся. Исключив из дорожного движения человеческий фактор, можно избежать нарушения правил и, соответственно, большинство аварий.

5. Языковые барьеры

Если вы пользуетесь онлайн-переводчиками, то заметили, что в последние несколько лет они стали работать эффективнее. Причина в том, что для перевода стали использовать нейросети.

Раньше для этого применяли статистическую модель, которая разбивала необходимый текст на части и переводила их пословно. Вместо этого нейронные сети анализируют переводимый текст целиком, то есть учитывают контекст. Кроме того искусственный интеллект постоянно обучается — он запоминает опыт предыдущих переводов и опирается на него в работе. Из-за этого качество перевода зависит от «популярности» языка — чем чаще пользователи к нему обращаются, тем меньше будет ошибок.

Сейчас переводчики работают в основном с письменными текстами и только учатся анализировать аудио. Когда нейронные сети будут достаточно хорошо распознавать и генерировать человеческую речь, можно будет забыть о языковых барьерах.

В избранное

Поиск по тегам

Присоединяйся к нам

Статистика

Капитализация : USD

Объем 24ч: USD

Доминация BTC: %

ТОП по росту (24Ч)

ТОП по падению (24Ч)