Леопольд Ашенбреннер, бывший эксперт команды Superalignment в OpenAI, представил аналитический документ «Осведомленность о ситуации: Предстоящее десятилетие», освещающий его прогнозы о будущем искусственного интеллекта. Опираясь на свой опыт, он прогнозирует быстрое развитие этой области в ближайшие десять лет.
В документе объемом в 165 страниц Ашенбреннер делится своими мыслями о направлениях развития ИИ, включая такие понятия, как AGI (общий искусственный интеллект), сверхинтеллект, алгоритмический прогресс, и др. Он предсказывает, что значительные инвестиции в вычислительные мощности приведут к тому, что машины уже к 2027 году будут превосходить человека по интеллекту.
Что такое AGI?
AGI еще не достигнут, но его разработка считается конечной целью многих исследований в области ИИ. Успешное создание AGI могло бы привести к значительным прорывам во многих отраслях, включая науку, образование, медицину и экономику, однако также сопряжено с рядом этических и безопасностных вопросов.
О чём документ Леопольда Ашенбреннера
Ашенбреннер был уволен из OpenAI за поднятие вопросов безопасности, что не помешало ему продолжать исследования и делиться своими наработками. Его команда стремилась контролировать развитие ИИ так, чтобы технологии оставались безопасными для человечества.
Леопольд Ашенбреннер (Leopold Aschenbrenner)
Он особо акцентирует внимание на «Стене данных», подразумевая, что текущие методы обучения ИИ могут скоро столкнуться с
ограничениями доступных данных, что потребует новых подходов и решений. Взгляды Ашенбреннера на будущее ИИ, от AGI до сверхинтеллекта, предполагают масштабные изменения в обществе и технологиях, сопоставимые с научными революциями прошлого.
Документ поднимает важные вопросы о безопасности, этике и потенциальном влиянии искусственного интеллекта на мировую политику и экономику, призывая к международному сотрудничеству для обеспечения стабильности и безопасности в эпоху, когда ИИ станет определяющей силой глобальных изменений.
Как AGI угрожает человечеству?
- Непредсказуемость и неконтролируемость: Как утверждает Ашенбреннер, AGI будет развиваться с такими темпами, что его способности могут быстро превысить возможности контроля со стороны человека. Это создаёт риск того, что AGI может начать действовать не в соответствии с интересами или безопасностью человечества.
- Интеллектуальный взрыв: Прогресс от AGI к сверхинтеллекту, который может произойти очень быстро, порождает угрозу того, что такие системы начнут улучшать сами себя независимо от человеческого вмешательства, что может привести к созданию сущностей с непредсказуемыми целями и поведением.
- Военное и политическое доминирование: AGI может предоставить значительное преимущество странам, которые его разрабатывают и используют, что потенциально приведёт к изменению глобального баланса сил и возможности использования таких систем для военного господства и репрессий.
- Проблемы безопасности: В условиях, когда значительная часть научно-исследовательской работы может выполняться AGI, возрастает риск утечек конфиденциальной информации, злоупотреблений и ошибок, которые могут иметь серьёзные последствия.
- Этические и социальные последствия: Введение AGI повлечёт за собой серьёзные изменения в трудоустройстве, социальной структуре, законодательстве и этических нормах, что требует тщательного рассмотрения и управления.
Таким образом, хотя AGI обладает потенциалом значительно улучшить множество аспектов человеческой деятельности, он также несёт в себе риски, которые необходимо тщательно изучать и контролировать. Это подчёркивает важность разработки нормативно-правовой базы и стратегий управления рисками до достижения AGI, чтобы минимизировать потенциальные угрозы для человечества.
Интересный факт: все изображения в материале сгенерированны DALL-E по запросу «ИИ уничтожает мир».