AGI может уничтожить человечество — отчёт

Бывший сотрудник OpenAI, уволенный за выражение опасений по поводу безопасности, поделился своим видением рисков и перспектив развития AGI.

Леопольд Ашенбреннер, бывший эксперт команды Superalignment в OpenAI, представил аналитический документ «Осведомленность о ситуации: Предстоящее десятилетие», освещающий его прогнозы о будущем искусственного интеллекта. Опираясь на свой опыт, он прогнозирует быстрое развитие этой области в ближайшие десять лет.

В документе объемом в 165 страниц Ашенбреннер делится своими мыслями о направлениях развития ИИ, включая такие понятия, как AGI (общий искусственный интеллект), сверхинтеллект, алгоритмический прогресс, и др. Он предсказывает, что значительные инвестиции в вычислительные мощности приведут к тому, что машины уже к 2027 году будут превосходить человека по интеллекту.

Что такое AGI?

AGI, или Искусственный Общий Интеллект (Artificial General Intelligence), это форма искусственного интеллекта, способного выполнять любую интеллектуальную задачу, которую может выполнять человек. В отличие от специализированного или узконаправленного ИИ, который разработан для конкретной задачи (например, распознавание изображений или перевод текста), AGI обладает способностью обучаться, понимать, рассуждать и принимать решения в широком спектре областей, аналогично человеческому разуму.

AGI еще не достигнут, но его разработка считается конечной целью многих исследований в области ИИ. Успешное создание AGI могло бы привести к значительным прорывам во многих отраслях, включая науку, образование, медицину и экономику, однако также сопряжено с рядом этических и безопасностных вопросов.

О чём документ Леопольда Ашенбреннера

Ашенбреннер был уволен из OpenAI за поднятие вопросов безопасности, что не помешало ему продолжать исследования и делиться своими наработками. Его команда стремилась контролировать развитие ИИ так, чтобы технологии оставались безопасными для человечества.
Leopold Aschenbrenner

Леопольд Ашенбреннер (Leopold Aschenbrenner)

Он особо акцентирует внимание на «Стене данных», подразумевая, что текущие методы обучения ИИ могут скоро столкнуться с
ограничениями доступных данных, что потребует новых подходов и решений. Взгляды Ашенбреннера на будущее ИИ, от AGI до сверхинтеллекта, предполагают масштабные изменения в обществе и технологиях, сопоставимые с научными революциями прошлого.
agi-mozhet-unichtozhit-chelovechestvo

Документ поднимает важные вопросы о безопасности, этике и потенциальном влиянии искусственного интеллекта на мировую политику и экономику, призывая к международному сотрудничеству для обеспечения стабильности и безопасности в эпоху, когда ИИ станет определяющей силой глобальных изменений.

Как AGI угрожает человечеству?

Из отчета Ашенбреннера можно выделит главные опасности, которые несёт развитие AGI (АГИ):
  • Непредсказуемость и неконтролируемость: Как утверждает Ашенбреннер, AGI будет развиваться с такими темпами, что его способности могут быстро превысить возможности контроля со стороны человека. Это создаёт риск того, что AGI может начать действовать не в соответствии с интересами или безопасностью человечества.
  • Интеллектуальный взрыв: Прогресс от AGI к сверхинтеллекту, который может произойти очень быстро, порождает угрозу того, что такие системы начнут улучшать сами себя независимо от человеческого вмешательства, что может привести к созданию сущностей с непредсказуемыми целями и поведением.
  • Военное и политическое доминирование: AGI может предоставить значительное преимущество странам, которые его разрабатывают и используют, что потенциально приведёт к изменению глобального баланса сил и возможности использования таких систем для военного господства и репрессий.
  • Проблемы безопасности: В условиях, когда значительная часть научно-исследовательской работы может выполняться AGI, возрастает риск утечек конфиденциальной информации, злоупотреблений и ошибок, которые могут иметь серьёзные последствия.
  • Этические и социальные последствия: Введение AGI повлечёт за собой серьёзные изменения в трудоустройстве, социальной структуре, законодательстве и этических нормах, что требует тщательного рассмотрения и управления.
agi-mozhet-unichtozhit-chelovechestvo
Таким образом, хотя AGI обладает потенциалом значительно улучшить множество аспектов человеческой деятельности, он также несёт в себе риски, которые необходимо тщательно изучать и контролировать. Это подчёркивает важность разработки нормативно-правовой базы и стратегий управления рисками до достижения AGI, чтобы минимизировать потенциальные угрозы для человечества.

Интересный факт: все изображения в материале сгенерированны DALL-E по запросу «ИИ уничтожает мир».
Теги:aihardware
Игродевочка изменит твою жизнь!
Игродевочка изменит твою жизнь!

Да, изменит! Потому что только на нашем Телеграм-канале ты почувствуешь себя частью большой геймерской семьи!
Интерактивы, тайны ИИ, интригующие скандалы и инсайды из мира игр и кино. А еще откровенные фото косплея, угарные мемчики, авторские «головные мюсли» (!!!) и личное общение с нашей редакцией на любые темы — подписывайся, чего ждёшь?!

Подписаться