Инженеры и ученые высказали свои требования в
В письме сказано, что разработки с искусственным интеллектом, «сопоставимым с человеческим, могут представлять серьезную угрозу обществу и человечеству». Работа с ИИ требует особой внимательности и концентрации, которых невозможно достичь в той гонке, где сейчас оказались производители продуктов с ИИ. Каждый из них пытается создать все «более мощные модели, действия которых сами не могут до конца понять, предсказать и проконтролировать».
Авторы письма заявляют, что подобными разработками должны заниматься «избираемые технологические лидеры». Иначе ИИ можно воспользоваться во вред: к примеру, породить еще больше новостной пропаганды.
Это не означает, что необходимо полностью остановить развитие технологий — нужно лишь «выйти из опасной гонки», говорится в письме. Его авторы предлагают в течение полугода объединить усилия и разработать общие правила безопасности, а также способы контроля экспериментов. По их мнению, правительству также необходимо подключиться к этому процессу и сформировать ведомства, которые будут сертифицировать продукты, а также смогут отличать реальный контент от «синтетического».
«Построение безопасной жизни в мире победившего ИИ — задача, которую нам предстоит решать»
Александр Акулиничев, главный редактор Psychologies.ru
Не скрою, что едва только появился ChatGPT, как мы в редакции стали придумывать, можно ли его использовать для написания текстов. Я даже подбросил в редакционный чат небольшую статью, полностью сгенерированную искусственным интеллектом, и попросил коллег оценить получившийся материал и крутость «эксперта». Редакция оценила, сказав, что стоит лишь немного доредактировать — а в целом психологические советы у «эксперта» вышли дельными.
Конечно, ни 3-я, ни 4-я ChatGPT не могут заменить человека в какой-либо роли, а особенно в роли психолога, и, само собой, не захватят эти нейросети мир в ближайшее время. Но ключевые слова — «в ближайшее время». К сожалению, человечество уже не раз в своей истории сталкивалось с тем, что технологии заходили слишком далеко. Наиболее очевидный пример — ядерное оружие, которое слишком эффективно и слишком опасно. Разоружиться человечеству так и не удалось.
Чуть менее очевидный и «мирный» пример — сверхзвуковые гражданские авиалайнеры: в их развитие было вложено огромное количество денег, но пара аварий и катастроф «Конкордов» плюс появление интернета, избавившего большой бизнес от множества командировок, вдруг сделали вложения в эту технологию неоправданными.
В обоих случаях, и с бомбой, и с самолетами, человечеству стоило прежде оценить собственные риски и границы применения технологий, а затем уже решать, развивать ли их. Отмотать технологию назад — немыслимая задача.
Прогресс ради прогресса — штука крайне опасная, если за технологическим и научным прорывом нет прорыва этического, философского и культурного
В этом плане сегодняшняя новость о том, что лидеры IT-отрасли, лучшие визионеры планеты (после, может быть, Джеймса Кэмерона со Стивеном Спилбергом) призывают коллег замедлиться и оценить возможные риски — обнадеживающая. Вряд ли, конечно, это приведет к коренным изменениям и остановке совершенствования ИИ, но сам факт диалога и разговора на эту тему важен.
Как нам жить в мире, где искусственный интеллект не уступает интеллекту естественному, нужно еще разобраться — и лучше сделать это сейчас, а не потом, когда сюжеты из фильмов «Терминатор», «Матрица» или «Она» станут реальностью. И Psychologies.ru будет освещать эту тему в разных аспектах. Уверен, построение безопасной и безбедной жизни в мире победившего ИИ — задача, которую нам всем предстоит решать в 2020–2030-е гг., независимо от профессии и политических взглядов.
Отметим, что среди подписавших открытое письмо: директор SpaceX, Tesla и Twitter Илон Маск и сооснователи Apple, Skype, Pinterest, Ripple Стив Возняк, Яан Таллинн, Эван Шарп и Крис Ларсен. Также свою подпись поставили главы фирм-разработчиков ИИ-продуктов — из Stability AI (Stable Diffusion), Scale AI, ThirdAI, Character.ai, Unanimous AI и других. Свою поддержку выразили и инженеры и исследователи Google и Microsoft, а также профессора нескольких университетов — Йельского, Оксфордского, Гарвардского, Кембриджского, Стэнфордского, Массачусетского технологического и других.
Кстати, по-своему очаровательна и разлетевшаяся по соцсетям теория, что само это открытое письмо — плод «труда» искусственного интеллекта. Где правда, где ложь, выяснять становится все сложнее.
Главный редактор Psychologies.ru