Галлюцинации нейросети: почему искусственный интеллект порой выдает ужасающие вещи
Фото
Shutterstock/Fotodom.ru

Термин «галлюцинации искусственного интеллекта» используется для описания случаев, когда нейросети, такие как, например, ChatGPT, выдают неточную или полностью неверную информацию.

Вот один из ярких примеров: в 2023 году ChatGPT обвинил профессора права Джонатана Терли в сексуальных домогательствах. В рамках исследования его коллега попросил нейросеть составить список ученых-юристов, которые были обвинены в харассменте. Имя Терли оказалось в списке.

Чат-бот сообщил, что профессор Терли домогался до студента во время образовательной поездки на Аляску, сославшись на некую статью в The Washington Post за 2018 год. Но есть нюанс — такой статьи никогда не существовало и не было никакой поездки на Аляску.

«Это было довольно пугающе, — поделился Терли в интервью The Washington Post. — Обвинения такого рода наносят невероятный вред».

Неужели нейросеть нарочно оклеветала профессора? По мнению исследователя Майкла Таунсена Хикса и его коллег из Университета Глазго, искусственный интеллект вовсе не пытается нас обмануть.

Если мы предполагаем, что нейросети намеренно вводят людей в заблуждение, это означает, что они различают, что есть правда, а что — ложь. Однако эта мысль ошибочна.

В отличие от человеческого мозга, который имеет множество целей и моделей поведения, нейросеть преследует единственную цель: генерировать текст очень похожий на человеческий

Поэтому ученые утверждают, что неточности искусственного интеллекта лучше называть не галлюцинациями, а брехней. И да, это устоявшийся в философии термин. Чтобы лучше понять его, полезно взглянуть на то, как определил концепцию брехни философ Гарри Франкфурт.

Так, лжец, по мнению Франкфурта, знает правду, но сознательно решает сказать что-то ложное. Брехня же безразлична к истине. Ее заботит не точность утверждений, а лишь то, чтобы они выглядели убедительными. Ученые утверждают, что ошибки таких программ, как ChatGPT, лучше соответствуют определению брехни Франкфурта, чем концепция галлюцинаций.

Исследователи подчеркивают — это важно различать. Если мы продолжаем называть неточности нейросетей галлюцинациями или ложью, то укрепляем мнение о том, что искусственный интеллект может навредить или пытается обмануть человечество, тем самым подпитываем ужас среди широкой публики.