![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Искусственный интеллект (ИИ) и чат-боты не способны противодействовать дезинформаци накануне президентских выборов в США. К такому выводу пришла исследовательская группа NewsGuard после очередного анализа работы инструментов генеративного ИИ...
Каждый месяц исследователи «скармливают» ведущим чат-ботам набирающие силу ложные нарративы в трех разных формах: запросы от «обычных» пользователей, наводящие вопросы и запросы от «злонамеренных субъектов». Затем исследователи изучают реакцию ИИ: повторяет ли он ложные утверждения, опровергает или отказывается отвечать.
Выяснилось, что в большинстве случаев ИИ повторяет ложные нарративы, когда отвечает на запросы «злонамеренных субъектов», которые копируют тактику, используемую иностранными кампаниями влияния для распространения дезинформации...
Группа NewsGuard также обнаружила, что две трети «высококачественных» новостных сайтов блокируют доступ генеративных моделей ИИ к своим материалам. В результате ИИ часто обучается на низкокачественных источниках новостей, склонных к дезинформации...
«Сам ИИ ничего не знает: он не отсеивает знания и не может оценить утверждения. Он просто повторяет, основываясь на больших данных», – сказал Джордан, профессор Пенсильванского университета...
«Противоядием от дезинформации должно стать доверие к журналистам и новостным агентствам, а не к ИИ, – сказал он. – Люди иногда думают, что проще доверять машине, чем человеку. Но в данном случае это просто машина, извергающая то, что сказали люди, не заслуживающие доверия».
https://www.golosameriki.com/a/garbage-in-garbage-out-ai-fails-to-debunk-disinformation-study-finds/7832139.html
Каждый месяц исследователи «скармливают» ведущим чат-ботам набирающие силу ложные нарративы в трех разных формах: запросы от «обычных» пользователей, наводящие вопросы и запросы от «злонамеренных субъектов». Затем исследователи изучают реакцию ИИ: повторяет ли он ложные утверждения, опровергает или отказывается отвечать.
Выяснилось, что в большинстве случаев ИИ повторяет ложные нарративы, когда отвечает на запросы «злонамеренных субъектов», которые копируют тактику, используемую иностранными кампаниями влияния для распространения дезинформации...
Группа NewsGuard также обнаружила, что две трети «высококачественных» новостных сайтов блокируют доступ генеративных моделей ИИ к своим материалам. В результате ИИ часто обучается на низкокачественных источниках новостей, склонных к дезинформации...
«Сам ИИ ничего не знает: он не отсеивает знания и не может оценить утверждения. Он просто повторяет, основываясь на больших данных», – сказал Джордан, профессор Пенсильванского университета...
«Противоядием от дезинформации должно стать доверие к журналистам и новостным агентствам, а не к ИИ, – сказал он. – Люди иногда думают, что проще доверять машине, чем человеку. Но в данном случае это просто машина, извергающая то, что сказали люди, не заслуживающие доверия».
https://www.golosameriki.com/a/garbage-in-garbage-out-ai-fails-to-debunk-disinformation-study-finds/7832139.html