Будущее рядом
Исследователи из Кембриджского университета
Такой выбор, как объясняют ученые, обусловлен всплеском интереса к ИИ в 2023 году. Среди примеров — открытые для всех сервисы ChatGPT, Bard, DALL-E и BingAI, которые зависят от больших языковых моделей — «сложных математических представлений языка, основанных на очень больших объемах данных и позволяющих компьютерам создавать язык, внешне похожий на человеческий».
Если Кембриджский словарь выбрал словом года «галлюцинировать», то другой ресурс — Британский словарь, или Collins Dictionary, — еще 1 ноября
Стоит отметить, что ИИ способны создавать не только текст, но изображения: например, в начале 2023 года в соцсетях начали
Как жить в мире нейросетей?
Мария Демина, продуктовый директор направления вовлечения команды Shkulev Tech
Чем опасен контент, созданный искусственным интеллектом?
Контент, который создает искусственный интеллект, может содержать в себе ложную неправдивую информацию, что может привести людей к панике. Например, можно сгенерировать фото- или видеоконтент, благодаря которому станет возможным выдавать желаемое за действительное в своих целях для дезинформации общества.
Также ИИ может создать контент, который будет поддерживать ненависть людей к друг другу на основе религии, расы, пола и не только, что может привести к насилию в обществе. Подобные материалы может создавать и человек, но с помощью искусственного интеллекта, который доступен даже в мессенджере, это может стать проще, а значит, количество такого контента значительно вырастет.
Как отличить контент нейросетей от контента, созданного реальным человеком?
Если говорить про текст, то необходимо обратить внимание на стиль написания. У искусственного интеллекта стиль более формальный и официальный, нежели у человека. Ошибки в грамматике, орфографии и пунктуации тоже могут говорить о том, что это писал ИИ.
Также важно обратить внимание на контекст. У человека контент будет более креативный и иметь широкий контекст, в то время, когда ИИ создает контент для решения конкретных задач. Ну и стоит проверить авторство: зачастую для контента, созданного с помощью нейросетей, это будет указано.
Если говорить про фото, то здесь стоит обратить внимание на детали. На изображениях, сгенерированных с помощью ИИ, могут содержаться мелкие дефекты, которых нет на фотографиях, сделанных людьми. Также необходимо проверить освещение и цвета на фото. У картинок, сгенерированных ИИ, может быть несоответствие свето-теневого рисунка и цветов. Еще на них можно встретить подписи или водяные знаки, которые указывают на то, что для генерации использовался искусственный интеллект.
Еще однин элемент, на который стоит обратить внимание — это композиция.
На реальных фотографиях, сделанных людьми, чаще всего композиция более сложная и включает больше элементов.
Важно отметить, что не всегда легко отличить контент, созданный ИИ, от человеческого, особенно если нейросеть обучена создавать грамотные тексты и реалистичные фотографии. Поэтому, если вы заметили признаки, указывающие на то, что контент мог быть сгенерирован ИИ, то стоит перепроверить достоверность с помощью различных инструментов, которые используют алгоритмы машинного обучения для анализа определения их происхождения.
Продуктовый директор направления вовлечения команды Shkulev Tech