Наука

Tech Xplore: языковые модели ИИ не вредят человечеству

21 августа 2024, 08:25
Фото: freepik.com/free-photo
21 августа 2024, 08:25 — ЭкоПравда

Новое исследование, проведенное Университетом Бат и Техническим университетом Дармштадта, сделало более полным понимание возможностей и ограничений больших языковых моделей (LLM) вроде ChatGPT. Авторы работы пришли к выводу, что такие модели неспособны к самостоятельному обучению и приобретению новых навыков без явных указаний. Это открытие подчеркивает их безопасность и предсказуемость.

Результаты были представлены на 62-й ежегодной конференции Ассоциации вычислительной лингвистики (ACL 2024), где докладчики продемонстрировали, что даже самые продвинутые LLM могут эффективно выполнять задачи только на основе примеров, предоставленных разработчиками, словно оставаясь в рамках заданной парадигмы. Они показали, что эти модели не могут самостоятельно развивать сложные навыки без дополнительной подготовки.

Данное исследование особенно важно в контексте растущих обсуждений о потенциальных рисках и возможностях больших языковых моделей. Ученые подтвердили, что опасения по поводу способности LLM к сложному рассуждению и самостоятельному планированию не имеют под собой оснований. Хотя LLM действительно могут выполнять более сложные языковые задачи и следовать детализированным инструкциям, они лишены способности к самостоятельному приобретению новых знаний и навыков.

Ранее «ЭкоПравда» информировала о том, что ультрапереработанные продукты вредят сердцу.




Больше актуальных новостей и эксклюзивных видео смотрите в телеграм канале "ЭкоПравда". Присоединяйтесь!