Даже люди со специальными навыками не смогли распознать до 27 % аудиозаписей, сгенерированных нейросетью на основе реальных голосов. К такому выводу в ходе эксперимента пришли исследователи из Университетского колледжа Лондона (UCL), сообщает в четверг ТАСС.
Как отмечают ученые, наряду с развлекательными и полезными функциями стремительно развивающиеся нейросети также несут в себе определенную угрозу. И правительства стран должны выработать стратегию и методы по борьбе с использованием технологий ИИ в неправомерных целях.
Опасность нейросетей стала очевидна в ходе поставленного опыта, в котором около пятисот носителей английского и китайского языков посчитали подлинной каждую четвертую искусственную аудиозапись голоса. Причем до эксперимента каждый участник тренировался в распозновании дипфейков – вероятно, в случае с неподготовленными людьми процент ошибок оказался бы еще выше.
Ранее мы рассказывали, что нейросеть GPT-3 справилась с логическими задачами наравне со студентами и продемонстрировала способность «мыслить».
Первая волна кровососущих комаров появится в центральных регионах России уже во второй половине мая. Такой…
Площадь лесных пожаров в Бурятии за сутки выросла в пять раз — с 1,2 до…
Россияне чаще всего поддерживают благотворительные проекты, связанные с детьми, животными и бездомными. К такому выводу…
Массовая гибель рыбы произошла в каскаде прудов на территории Шпаковского и Грачевского округов Ставропольского края.…
В майские праздники важно сохранять баланс в питании и избегать перегрузки организма вредными продуктами. На…
Санкт-Петербург и Москва возглавили рейтинг самых привлекательных для молодежи городов России. При этом 63% опрошенных…