Нейросети могут распространять стереотипы о женщинах, детях, беженцах, коренных народах, людях с ограниченными возможностями и других, пишет Science.
В исследовании, опубликованном на страницах журнала, говорится, что основным источником, на котором обучаются модели искусственного интеллекта является информация из интернета.
По словам авторов, люди вполне могут воспринимать ответы нейросети как достоверные. Они отметили, что в таком случае, у человека может закрепиться ошибочное суждение.
В качестве примера приводятся данные нейросети, согласно которым, чернокожие ответчики в суде являются менее благонадежными.
Авторы выразили обеспокоенность, что практика вынесения приговоров у судей, ознакомившихся с данной моделью ИИ может измениться.
В связи с этим, в исследовании указывается на необходимость учить людей отличать фактические возможности новых технологий от воображаемых.
Ранее сообщалось, что ученые из Петрозаводского государственного университета и международные коллеги разработали новый метод расчета энтропии с использованием нейронной сети NNetEn. Подробнее об этом читайте в материале «ЭкоПравды».
В Москве и Московской области объявлен желтый уровень опасности - вечером 22 ноября ожидается сильный…
Медики Сеченовского университета предложили новый метод терапии диффузной B-клеточной крупноклеточной лимфомы, основанный не генетическом анализе…
Эксперты "Рольф Сервиса" рассказали, где не стоит парковать машину во дворе, чтобы не нарваться на…
Археологи из Университета Бургоса (Испания) обнаружили доказательства того, что у неандертальцев было абстрактное мышление. Об…
В недавнем исследовании, опубликованном в журнале Environmental Research: Climate, утверждается, что изменение климата привело к…
Телеведущий и врач общей практики Александр Мясников в телеэфире программы "О самом главном" заявил, что…