Искусственный интеллект может похоронить нас под лавиной дезинформации

11-06-2019

 

New York Times испытала на людях новейшие алгоритмы текстовой генерации. Они стремительно улучшаются: все труднее отличить текст, написанный человеком, от составленного машиной. Максимум через пару лет это будет совершенное оружие массового поражения, инструментов противодействия которому пока нет, передает Hightech+. За последнее время появилось два впечатляющих алгоритма, синтезирующих правдоподобные тексты в различных жанрах. Один из них — GPT-2 — создали в OpenAI и сразу засекретили, настолько опасным оказалось попадание его «не в те руки». Второй вариант представили исследователи из Института Пола Аллена в Сиэтле. И здесь, напротив, разработчики намерены раскрыть в ближайшее время все детали. New York Times разобралась в прогрессе технологии и ее опасностях. Теперь журналисты уверены, что через пару лет интернет накроет волна фальшивых сообщений, в сравнении с которой сегодняшние усилия любой «фабрики троллей» с людьми покажутся детскими шалостями. NYT продолжает исследование в формате поста в соцсети, который ИИ разворачивает из различных вводных. Журналисты выбрали, кого надо осудить в заметке — республиканцев или демократов — а также за что: засилье иммигрантов либо рост стоимости здравоохранения. Результат впечатляет: например, в одном из сообщений даже есть «ссылка» на поддельный твит президента Дональда Трампа. Впрочем, NYT отмечает, что на большой выборке видны и недостатки ИИ: иногда в статьях нет логики, а некоторые результаты вовсе не имеют смысла. Тем не менее, журналисты убеждены: в ближайшие годы модели текстовой генерации пройдут тот же путь, что проделали состязательные генеративные нейросети в создании правдоподобных фото и видео. И сгенерированные тексты рано или поздно станут неотличимы от написанных человеком. А значит, нас буквально накроет волна фейковых текстов, новостей и мнений, если не предпринять серьезных усилий, чтобы защитить пока ничего не подозревающих пользователей от нового вида оружия. В OpenAI посчитали необходимым закрыть свой алгоритм. В Институте Аллена, напротив, убеждены, что если алгоритм не раскрыть, подобрать ключи к распознаванию фальшивых ИИ-новостей будет невозможно. Этого же мнения придерживается и глава исследующей фейки ИИ-команды Facebook Манохар Палури: «Если у вас на руках генеративная модель, значит, есть и способы противостоять ей».




Советуем так же почитать статьи из рубрики "Урология":

Доллар готовят к шокирующему обвалу во имя защиты американских рабочих -   В США активные споры вызывает судьба национальной валюты. За девальвацию доллара выступает...
«Первый канал» в аннулировал результат финала шоу «Голос. Дети» - «Первый канал» принял решение аннулировать результат финала шестого сезона проекта...
Лебедь, рак и щука: кто станет Украинским президентом? -   Такого Украина еще не помнит: сразу 44 кандидата баллотируются на пост Президента. В жаркой...
Как удалить навсегда аккаунт в Фейсбук – простой метод -   Если вы всерьез озаботились вопросом: «Как удалить аккаунт в Фейсбук?», то...
Путин ответил о своей свадьбе журналистам агентства Алины Кабаевой -   Вопрос о свадьбе Путина на итоговой пресс-конференции главы государства прозвучал от...
Запрос идиот в Google показывает Трампа, что объяснили в компании Google -   На последнем слушании в Конгрессе Соединенных Штатов состоялось очень интересное и необычное...

Отзывы и обсуждение статьи:






Copyright © 2011-2019 Dom-Lady.ru - женский онлайн журнал All Rights Reserved. Правила | Обратная связь | Реклама на сайте | Карта сайта
При полном или частичном использовании материалов активная ссылка на сайт "Dom-Lady.ru" обязательна.