banner

Новости

Mar 14, 2024

Склонность чат-ботов с искусственным интеллектом распространять ложь создает проблемы

Проблема чат-ботов с искусственным интеллектом (ИИ), таких как ChatGPT, генерирующих ложную информацию, вызывает растущую озабоченность предприятий, организаций и частных лиц. Эта проблема затрагивает самые разные области: от психотерапии до написания юридических записок. Даниэла Амодей, соучредитель чат-бота с искусственным интеллектом Claude 2, признает, что все модели сегодня страдают от той или иной степени «галлюцинации», поскольку они в первую очередь предназначены для предсказания следующего слова и часто делают это неточно. Такие разработчики, как Anthropic и OpenAI, создавшие ChatGPT, активно работают над решением этой проблемы и повышением достоверности своих систем искусственного интеллекта.

Однако эксперты в этой области предполагают, что полное искоренение этой проблемы может оказаться невозможным. Профессор лингвистики Эмили Бендер объясняет, что несоответствие между технологией искусственного интеллекта и предлагаемыми вариантами ее использования создает неотъемлемые ограничения. Надежность генеративных технологий искусственного интеллекта имеет большое значение: прогнозируемый вклад в мировую экономику составит от 2,6 до 4,4 триллионов долларов. Например, Google стремится предоставлять новостным организациям продукты искусственного интеллекта для написания новостей, подчеркивая необходимость точности.

Последствия ложной информации выходят за рамки письменных текстов. Ученый-компьютерщик Ганеш Баглер в сотрудничестве с институтами гостиничного менеджмента в Индии использует системы искусственного интеллекта для изобретения рецептов. Неточные результаты могут существенно повлиять на вкус и качество еды, что подчеркивает необходимость точности генеративного ИИ.

В то время как генеральный директор OpenAI Сэм Альтман по-прежнему с оптимизмом смотрит на улучшение склонности систем искусственного интеллекта выдавать ложную информацию, скептики, такие как Бендер, утверждают, что улучшений может быть недостаточно. Языковые модели в первую очередь предназначены для прогнозирования последовательностей слов на основе обучающих данных, и выходные данные, которые они генерируют, представляют собой, по сути, творческое письмо, а не фактическую информацию. Эти модели, как правило, дают сбой по каким-то тонким причинам, которые читателям сложно определить.

Несмотря на опасения, некоторые компании считают склонность чат-ботов с искусственным интеллектом генерировать ложную информацию ценной функцией. Маркетинговые фирмы, такие как Jasper AI, используют творческие возможности ИИ для генерации уникальных идей для презентаций клиентов. Однако спрос на точный контент остается высоким, и такие компании, как Google, предпринимают усилия по решению этой проблемы.

Билл Гейтс и другие сторонники ИИ выражают оптимизм по поводу того, что можно внести улучшения, которые помогут моделям ИИ отличать факт от вымысла. Тем не менее, еще неизвестно, удастся ли в будущем достичь полной точности в тексте, генерируемом ИИ.

ДЕЛИТЬСЯ