Развенчание мифов об ИИ - 10 распространённых заблуждений о больших языковых моделях

Большие языковые модели (LLM) — одна из самых разрекламированных инноваций в сфере технологий. Фактически, по оценкам некоторых специалистов, генеративный ИИ может приносить мировой экономике от 2,6 до 4,4 триллиона долларов ежегодно и увеличивать влияние всего искусственного интеллекта (ИИ) на 15–40%.

Однако, хотя рынок генеративного ИИ продолжает расти, по-прежнему циркулирует множество заблуждений и мифов о том, как работают алгоритмы искусственного интеллекта, выстаивая лингвистический корпус языковых данных: от мнения о том, что LLM разумны, до того, что они могут генерировать контент с высокой точностью и без предвзятости. По-прежнему существует ряд заблуждений, о которых пользователям следует знать, дабы демистифицировать собственные заблуждения. Вот развенчание некоторых мифов об искусственном интеллекте:

1. LLM может мыслить

Одно из самых распространённых заблуждений о LLM заключается в том, что они могут мыслить самостоятельно. В действительности, языковые модели могут делать выводы из набора данных, создавать резюме или прогнозировать текст, но они не понимают естественный язык так, как это понимает человек.

Они обрабатывают вводимые пользователем данные и используют шаблоны, извлечённые из обучающих данных, чтобы определить, как реагировать. Точно так же они не понимают эмоций, сарказма и разговорных выражений. Это означает, что современные LLM далеки от искусственного общего интеллекта (AGI).

2. Языковые модели создают уникальный контент

Хотя LLM можно использовать при создании контента, они не вводят независимые инновации и не создают оригинальный контент. Вместо этого они берут шаблонные заготовки из письменного или визуального контента, которые наиболее часто встречаются в обучающих данных, и используют их. Именно поэтому, об уникальности никакой речи идти тут не может, а скорее наоборот – происходит заимствование.

Использование обучающей информации, хранящейся массивами в центрах обработки данных (ЦОД) для генерации ответов является спорной практикой. Например, три художника подали коллективный иск против Stability AI, DeviantArt и Midjourney, утверждая, что «украденные работы, взятые из Интернета, защищены авторским правом, но являлись исходниками для продуктов искусственного интеллекта», поскольку они использовались в машинном обучении для генерации изображений.

3. Все входные данные конфиденциальны

Существенное заблуждение - что данные, вводимые в диалог, полностью конфиденциальны. В начале этого года Samsung запретила использование ChatGPT на рабочем месте после того, как сотрудник слил (вводил) конфиденциальные данные сотрудников в запрос. Корейская компания ввела запрет из-за опасений, что предоставленная информация будет храниться на неизвестном внешнем сервере удалённого дата-центра, который неподконтролен специалистам компании.

Таким образом, организации, стремящиеся использовать генеративный искусственный интеллект, должны особо подчёркивать, какой информацией сотрудники могут или не могут делиться с программным модулем. В противном случае, они рискуют нарушить правила защиты данных.

4. Генеративный ИИ на 100% точен

Многие пользователи ошибаются, полагая, что информация, которую генерируют такие инструменты, как ChatGPT и Bard, на 100% точна или, по крайней мере, в целом точна. К сожалению, языковые модели подвержены галлюцинациям, то есть они могут подделывать факты и информацию, излагая их «уверенно», как если бы они были правильными. В результате пользователям необходимо дважды проверять факты и логические объяснения, чтобы их не ввели в заблуждение.

5. Языковые модели беспристрастны

Учитывая, что технологии разрабатываются людьми и имитируют человеческий язык, важно помнить, что в эти системы заложены предвзятости, особенно если в базовых настройках обучения есть ошибки. Это означает, что пользователи не могут позволить себе считать их беспристрастными и непредвзятыми источниками.

Машинная предвзятость может проявляться в виде неточностей, искажённой преднамеренно или просто недостоверной информации. Известны случаи более открытого, разжигающего ненависть или оскорбительного содержания. Степень проявления этих предубеждений зависит от людей, занимавшихся машинным обучением этих моделей.

6. Генеративный ИИ эффективен на всех языках

Хотя генеративные решения искусственного интеллекта можно использовать для перевода информации с одного языка на другой, их эффективность при этом зависит от популярности используемого языка. LLM могут генерировать убедительные ответы на популярных европейских языках, таких как английский и испанский, но могут выдавать сомнительные ответы на языках, которые используются реже.

7. LLM сообщают информацию из Интернета

Языковые модели, такие как GPT4 и GPT 3.5, не имеют доступа к Интернету в режиме реального времени, но обрабатывают свои обучающие данные (только некоторые из которых извлекаются из Интернета). Для таких поставщиков, как Google, OpenAI и Microsoft, характер этой обучающей информации, собираемой зачастую специальными ботами, в основном хранится в режиме «чёрного ящика», а это означает, что пользователи не имеют представления о том, какую информацию LLM используют для генерации результатов. То есть, пользователи не могут позволить себе предполагать, что информация актуальна и точна.

8. Программы LLM предназначены для замены сотрудников-людей

Хотя ИИ обладает потенциалом для автоматизации миллионов рабочих мест, программные решения, в их нынешнем виде, не могут заменить интеллект, креативность и изобретательность сотрудников. Это всего лишь инструмент, предназначенный для совместного взаимодействия с работниками умственного труда, а не для их замещения. Сочетание опыта персонала с масштабируемостью и возможностями обработки можно назвать «расширенным интеллектом».

9. Компьютеры не могут создавать вредоносный контент

Некоторые пользователи могут полагать, что меры модерации контента таких поставщиков, как OpenAI, не позволяют другим лицам использовать их для создания оскорбительного или вредоносного контента, но это не так. С помощью джейлбрейков и некоторых изобретательных подсказок киберпреступники могут обманом заставить LLM генерировать вредоносный код и фишинговые электронные письма, которые они могут использовать в реальных условиях для кражи частной информации. Причём уже известны и подтверждены случаи, когда путём нехитрого обмана (предложения поиграть в шпиона), искусственный разум заставили выманивать у других пользователей конфиденциальные данные об их банковских картах.

10. ИИ может постоянно изучать новую информацию

В отличие от людей, машины не изучают новую информацию постоянно, а используют методы глубокого обучения только для выявления новых закономерностей в своих алгоритмах. Лучшее понимание этих закономерностей позволяет им делать более подробные выводы из массивов данных. Таким образом, организациям каждый раз необходимо переобучать LLM при необходимости перестраиваться на переработку информации другого типа (более понятным примером может служить художественная литература и тексты технической документации). Для анализа другого типа текста или изменении задачи, требуются и другие алгоритмы обработки информации.

Языковые модели — лучше держать их под контролем

LLM потенциально может повысить эффективность выполнения некоторых операций работниками умственного труда, но важно реалистично оценивать свои ожидания от этой технологии. Совсем не факт, что можно будет получить наилучшие результаты. Бдительность в отношении заимствований и неточностей поможет избежать риска быть введёнными в заблуждение. Осознание этих особенностей, а также правильное (чёткое) формулирование запросов, позволит пользователям увеличить свои шансы на получение конкретной информации для улучшения процесса принятия решений.