Даже люди со специальными навыками не смогли распознать до 27 % аудиозаписей, сгенерированных нейросетью на основе реальных голосов. К такому выводу в ходе эксперимента пришли исследователи из Университетского колледжа Лондона (UCL), сообщает в четверг ТАСС.
Как отмечают ученые, наряду с развлекательными и полезными функциями стремительно развивающиеся нейросети также несут в себе определенную угрозу. И правительства стран должны выработать стратегию и методы по борьбе с использованием технологий ИИ в неправомерных целях.
Опасность нейросетей стала очевидна в ходе поставленного опыта, в котором около пятисот носителей английского и китайского языков посчитали подлинной каждую четвертую искусственную аудиозапись голоса. Причем до эксперимента каждый участник тренировался в распозновании дипфейков – вероятно, в случае с неподготовленными людьми процент ошибок оказался бы еще выше.
Ранее мы рассказывали, что нейросеть GPT-3 справилась с логическими задачами наравне со студентами и продемонстрировала способность «мыслить».
Макет шалаша Ленина, сожженный неизвестными накануне, восстановят, сообщили сотрудники музея "Шалаш В. И. Ленина" в…
Специалисты университета «ЛЭТИ» в Санкт-Петербурге разработали нейросеть, способную воспроизводить звуковые сигналы, которые используют кашалоты. Метод основан…
Команда ученых из Университета Андреса Бельо в Чили и Института радиоастрономии Макса Планка в Германии представила новые данные о далекой…
В Новой Зеландии официально объявлена эпидемия коклюша. Министерство здравоохранения страны опубликовало данные, согласно которым за последний месяц…
С начала следующей недели в столичном регионе установится морозная погода. Научный руководитель Гидрометцентра России Роман Вильфанд в беседе…
Сильный ветер в Москве привёл к падению деревьев, в результате чего травмы получили четыре человека. Среди пострадавших — три…