Термин «галлюцинации искусственного интеллекта» используется для описания случаев, когда нейросети, такие как, например, ChatGPT, выдают неточную или полностью неверную информацию.
Вот один из ярких примеров: в 2023 году ChatGPT
Чат-бот сообщил, что профессор Терли домогался до студента во время образовательной поездки на Аляску, сославшись на некую статью в The Washington Post за 2018 год. Но есть нюанс — такой статьи никогда не существовало и не было никакой поездки на Аляску.
«Это было довольно пугающе, — поделился Терли в интервью The Washington Post. — Обвинения такого рода наносят невероятный вред».
Неужели нейросеть нарочно оклеветала профессора?
Если мы предполагаем, что нейросети намеренно вводят людей в заблуждение, это означает, что они различают, что есть правда, а что — ложь. Однако эта мысль ошибочна.
В отличие от человеческого мозга, который имеет множество целей и моделей поведения, нейросеть преследует единственную цель: генерировать текст очень похожий на человеческий
Поэтому ученые утверждают, что неточности искусственного интеллекта лучше называть не галлюцинациями, а брехней. И да, это устоявшийся в философии термин. Чтобы лучше понять его, полезно взглянуть на то, как определил концепцию брехни философ Гарри Франкфурт.
Так, лжец, по мнению Франкфурта, знает правду, но сознательно решает сказать что-то ложное. Брехня же безразлична к истине. Ее заботит не точность утверждений, а лишь то, чтобы они выглядели убедительными. Ученые утверждают, что ошибки таких программ, как ChatGPT, лучше соответствуют определению брехни Франкфурта, чем концепция галлюцинаций.
Исследователи подчеркивают — это важно различать. Если мы продолжаем называть неточности нейросетей галлюцинациями или ложью, то укрепляем мнение о том, что искусственный интеллект может навредить или пытается обмануть человечество, тем самым подпитываем ужас среди широкой публики.