Наука
Tech Xplore: языковые модели ИИ не вредят человечеству
Автор: Елена Мальцева
21 августа 2024, 08:25
Новое исследование, проведенное Университетом Бат и Техническим университетом Дармштадта, сделало более полным понимание возможностей и ограничений больших языковых моделей (LLM) вроде ChatGPT. Авторы работы пришли к выводу, что такие модели неспособны к самостоятельному обучению и приобретению новых навыков без явных указаний. Это открытие подчеркивает их безопасность и предсказуемость.
Результаты были представлены на 62-й ежегодной конференции Ассоциации вычислительной лингвистики (ACL 2024), где докладчики продемонстрировали, что даже самые продвинутые LLM могут эффективно выполнять задачи только на основе примеров, предоставленных разработчиками, словно оставаясь в рамках заданной парадигмы. Они показали, что эти модели не могут самостоятельно развивать сложные навыки без дополнительной подготовки.
Данное исследование особенно важно в контексте растущих обсуждений о потенциальных рисках и возможностях больших языковых моделей. Ученые подтвердили, что опасения по поводу способности LLM к сложному рассуждению и самостоятельному планированию не имеют под собой оснований. Хотя LLM действительно могут выполнять более сложные языковые задачи и следовать детализированным инструкциям, они лишены способности к самостоятельному приобретению новых знаний и навыков.
Ранее «ЭкоПравда» информировала о том, что ультрапереработанные продукты вредят сердцу.
Больше актуальных новостей и эксклюзивных видео смотрите в телеграм канале "ЭкоПравда". Присоединяйтесь!
Подписывайтесь на ЭкоПравда: