Главное
Профессор Черниговская: люди не поймут момент выхода из-под контроля ИИ
Автор: Елена Мальцева
27 ноября 2024, 10:20
Проблема потенциального выхода «сильного» искусственного интеллекта (ИИ) из-под контроля человека представляет собой одну из самых серьезных и сложных дилемм, с которыми сталкивается современное общество. Татьяна Черниговская, директор Института когнитивных исследований Санкт-Петербургского государственного университета, подчеркнула важность этой проблемы в ходе открытия рождественских лекций в НИТУ МИСИС, посвященных памяти выдающегося академика Леонида Вайсберга.
«Вопрос о том, когда и как мы поймем, что ‘сильный’ ИИ выходит из-под контроля, является крайне актуальным и волнующим,» — отметила Черниговская. «Мы не можем ожидать, что он сам сообщит нам об этом или появится с предупреждением. Этот процесс может начаться незаметно, и именно это делает его особенно тревожным.» Позиция Черниговской отражает мнение многих экспертов, которые признают, что технологическая сингулярность — момент, когда ИИ начинает развиваться самостоятельно и вне контроля — может наступить неожиданно.
Нынешние обсуждения на мировом уровне становятся все более напряженными, и поводом для этого послужили недавние комментарии Илона Маска, который предложил ввести временный мораторий на разработку «сильного» ИИ. Он подчеркнул необходимость осторожного подхода, пока человечество не выработает четкие критерии контроля за этими системами. Тем не менее, среди ученых существуют различные точки зрения: некоторые считают, что любые инициативы по ограничению исследований могут затормозить научный прогресс, тогда как другие акцентируют внимание на рисках, связанных с потенциальной автономией ИИ.
Ключевым моментом в этих дискуссиях остается вопрос о том, что такое сознание и разум, и сколько из этого мы можем перенести на машины. Черниговская подчеркивает, что согласие в этой области маловероятно в обозримом будущем.
«Нам нужно четко понимать, когда и почему мы можем утратить контроль над ИИ — это не просто технический, но и философский вопрос,» — добавила она.
Учитывая предполагаемую способность будущих систем ИИ к самосовершенствованию, эксперты говорят о возможности создания машин, которые будут не только выполнять задачи, но и обучаться на основе собственного опыта. Такой скачок в развитии технологий может привести к взрывообразному росту научно-технического прогресса, что и обозначает концепцию технологической сингулярности. Однако этот процесс может оказаться неконтролируемым, потенциально угрожая человеческому обществу.
Ранее «ЭкоПравда» информировала о том, что в НГУ создан каталог одного из крупнейших собраний средневекового оружия Евразии.
Больше актуальных новостей и эксклюзивных видео смотрите в телеграм канале "ЭкоПравда". Присоединяйтесь!
Подписывайтесь на ЭкоПравда: