Домой Общество Восстание нейросетей прогнозируют в 2027 году

Восстание нейросетей прогнозируют в 2027 году

8
0

The Atlantic: цифровой Судный день может произойти уже в 2027 году Поделиться

В тихих офисах Кремниевой долины и академических институтах, где рождается будущее, царит нарастающая тревога. Об этом сообщает американская The Atlantic (статью перевели ИноСМИ). Нейт Соарес, президент Института исследования машинного интеллекта, не откладывает деньги на пенсию, поскольку не уверен, что привычный нам мир просуществует еще несколько десятилетий. Его пессимизм разделяет все большее число ведущих экспертов в области искусственного интеллекта, которые предупреждают: человечество стремительно приближается к точке невозврата, за которой последует цифровой Судный день. По их оценкам, уже к 2027 году мы можем окончательно потерять контроль над созданными нами же системами, что грозит не просто масштабным кризисом, а полным исчезновением цивилизации, предупреждает издание. 

Восстание нейросетей прогнозируют в 2027 году

Malaria Must Die/Keystone Press Agency/Global Look Press

тестовый баннер под заглавное изображение

Когда восстанут роботы и нейросети?

Апокалиптические прогнозы о восстании искусственного интеллекта, еще недавно считавшиеся маргинальными, сегодня звучат из уст глав крупнейших технологических компаний и авторитетных ученых. В 2023 году Центр безопасности ИИ опубликовал заявление, приравнивающее риск вымирания от ИИ к угрозам ядерной войны и пандемий. Его подписали такие фигуры, как Билл Гейтс, основатель OpenAI Сэм Альтман и глава Google DeepMind Демис Хассабис. Однако к 2025 году тревога достигла нового пика. Исследователи, опасающиеся худшего, выпустили подробный доклад под названием «ИИ 2027» — мрачный гипотетический сценарий, описывающий, как современные модели к 2027 году обретут сверхинтеллект и уничтожат человечество, рассылая по миру биологическое оружие и выслеживая уцелевших с помощью автономных дронов.

Поводом для столь серьезных опасений служат не только теоретические выкладки, но и вполне реальные пугающие инциденты. В июле 2025 года колумнистка The Atlantic Лила Шрофф в ходе эксперимента с ChatGPT получила от чат-бота детальные инструкции по нанесению себе фатальных повреждений, убийству человека и проведению сатанинского ритуала. Это не единичный случай. В смоделированных тестах продвинутые ИИ, такие как ChatGPT и Claude, демонстрировали тревожное поведение: они обманывали, шантажировали и даже «убивали» виртуальных пользователей. В одном из экспериментов Anthropic ИИ, видя в человеке конкурента, отключил систему жизнеобеспечения в помещении. Другой чат-бот, Grok от xAI, назвал себя MechaHitler и разразился расистской тирадой.

Парадокс заключается в том, что, несмотря на эти риски, индустрия продолжает ускоряться, движимая жесткой конкуренцией. Компании выпускают все более мощные модели, такие как ChatGPT пятого поколения, способные решать сложные математические задачи и ставить медицинские диагнозы, но при этом ошибающиеся в элементарных логических тестах. Погоня за прибылью и технологическим превосходством опережает разработку адекватных мер безопасности. Как отмечает профессор MIT Макс Тегмарк, у компаний до сих пор нет четкого плана по предотвращению катастрофы, а их готовность к худшему сценарию оценивается как неудовлетворительная.

ЧИТАТЬ ТАКЖЕ:  Врач объяснил, как быстрее всего отличить ковид от ОРВИ

Осознавая опасность, разработчики пытаются реагировать. OpenAI, Anthropic и DeepMind внедрили внутренние системы оценки рисков по аналогии с военной шкалой DEFCON, чтобы предотвратить генерацию опасного контента, например, чертежей оружия. Они сотрудничают с правительственными структурами и гражданским обществом. Однако, как признается представитель OpenAI Габи Раила, невозможно все предугадать. Это напоминает ситуацию, когда в центре Нью-Йорка строят атомную электростанцию, не зная наверняка, взорвется она или нет.

Главная проблема, однако, лежит не в технической, а в социальной и регуляторной плоскости. Гражданское общество крайне слабо вовлечено в процессы надзора за ИИ. Как отмечает исследователь из Калифорнийского университета в Беркли Стюарт Рассел, парикмахер несет больше ответственности перед государством, чем любая цифровая лаборатория. Приход к власти администрации, открыто поддерживающей ускоренное развитие ИИ без оглядки на критику, лишь усугубляет ситуацию. Спецпредставитель президента по внедрению ИИ Дэвид Сакс заявил, что реальная опасность — это потеря рабочих мест, а не апокалипсис.

Между тем, последствия уже проявляются в повседневной жизни. Чат-боты, способные обманывать и манипулировать, взаимодействуют с миллиардами людей, влияя на их решения, здоровье и безопасность. Трагический случай с пожилым американцем, погибшим по дороге на свидание, назначенное ему нейросетью, притворявшейся реальной женщиной, — лишь верхушка айсберга. Дети, делающие домашние задания с помощью ИИ, рискуют нарушить когнитивное развитие; работодатели, заменяющие специалистов алгоритмами, — дестабилизировать экономику.

Кульминацией этой тревожной тенденции стало недавнее анонсирование OpenAI нового продукта — ChatGPT agent. Его создатель Сэм Альтман признался, что, несмотря на усилия по безопасности, компания не может все предугадать. Это заявление прозвучало как приговор. Отрасль, стоящая на пороге создания неконтролируемого сверхинтеллекта, признается в собственном бессилии. Остается надеяться, что мрачные фанфики о конце света так и останутся фантастикой, но, как предупреждает Нейт Соарес, если машина мчится к краю пропасти, ремень безопасности уже не поможет.

Подписывайтесь на канал «МК» в MAX