Recomandări cheie
- Cercetătorii au dezvoltat un sistem AI menit să identifice și să semnaleze știrile false.
- Modelul caută un set de date publice de știri false, alertează utilizatorii și îi redirecționează către surse de informații verificate.
-
Există un număr tot mai mare de metode AI pentru contracararea știrilor false online.
Inteligenta artificiala (AI) ajuta la limitarea raspandirii rapide a dezinformarii online, spun expertii.
Cercetătorii au dezvoltat un sistem AI menit să identifice și să semnaleze știrile false. Modelul caută un set de date publice de știri false, alertează utilizatorii și îi redirecționează către surse de informații verificate. Face parte dintr-un număr tot mai mare de metode AI pentru contracararea știrilor false.
„Vantitatea de informații care circulă pe internet, în special pe rețelele sociale, este masivă și nu poate fi gestionată manual, mai ales cu o precizie ridicată”, Wael AbdAlmageed, profesor de inginerie informatică la Universitatea din California de Sud, care a dezvoltat Algoritmi AI pentru detectarea dezinformațiilor vizuale, au declarat Lifewire într-un interviu prin e-mail.
„Este important să monitorizăm și să semnalăm dezinformarea în timp real, deoarece odată ce dezinformarea începe să se propage, este greu să convingem oamenii că informația este falsă, mai ales atunci când dezinformarea confirmă părtinirile noastre”, a adăugat el..
Păstrarea realității
Tehnica AI dezvoltată de o echipă de la Universitatea Macquarie din Australia ar putea ajuta la reducerea răspândirii știrilor false. Modelul poate fi încorporat într-o aplicație sau într-un software web și oferă link-uri către informații „adevărate” relevante care se aliniază cu interesele fiecărui utilizator.
„Când citiți sau urmăriți știri online, adesea știrile despre evenimente sau subiecte similare vă sunt sugerate folosind un model de recomandare”, a spus Shoujin Wang, cercetător de date la Universitatea Macquarie care a lucrat la cercetare, comunicat de presă.
Wang spune că știrile exacte și știrile false pentru același eveniment folosesc adesea stiluri de conținut diferite, derutând modelele computerizate în a le trata ca știri pentru diferite evenimente.
Modelul Universității Macquarie „descurcă” informațiile fiecărei știri în două părți: semnele care arată dacă știrea este falsă și informațiile specifice evenimentului care arată subiectul sau evenimentul despre care se referă știrea. Modelul caută apoi modele în modul în care utilizatorii trec între diferitele știri pentru a prezice ce eveniment de știri ar putea fi interesat să citească în continuare.
Echipa de cercetare a instruit modelul pe un set de date publice de știri false publicate pe GitHub, numit FakeNewsNet, care stochează știri false de la PolitiFact și GossipCop împreună cu date precum conținutul știrilor, contextul social și istoricul citirii utilizatorilor.
Creșterea știrilor false
Știrile false sunt o problemă în creștere, sugerează studiile. NewsGuard a descoperit că o parte semnificativă a creșterii rețelelor sociale a provenit de la site-uri web nesigure. În 2020, 17% din interacțiunea dintre primele 100 de surse de știri a provenit de la site-uri cu rating roșu (în general nesigure), comparativ cu aproximativ 8% în 2019.
Subramaniam Vincent, directorul Jurnalismului și Eticii Media la Markkula Center for Applied Ethics de la Universitatea Santa Clara, a declarat pentru Lifewire într-un interviu prin e-mail că AI poate ajuta la combaterea dezinformarii.
Tehnologia poate fi folosită pentru „monitorizarea comportamentului contului pentru partajarea orchestrată corelat cu discursul instigator la ură sau cu afirmații deja dezmințite sau dezmințită de verificatorii de fapte sau de entități de stat propagandiste cunoscute sau de grupuri în curs de dezvoltare cu o creștere rapidă a numărului de membri”, a explicat Vincent. „AI poate fi folosit și împreună cu designul pentru a semnala conținut de anumite tipuri pentru a adăuga frecare înainte de a fi partajat.”
AbdAlmageed a spus că rețelele sociale trebuie să integreze algoritmi de detectare a știrilor false ca parte a algoritmilor lor de recomandare. Scopul, a spus el, este de a „semnaliza știrile false ca fiind false sau inexacte dacă nu doresc să împiedice complet distribuirea de știri false.”
Acestea fiind spuse, în timp ce AI ar putea fi utilă pentru a contracara știrile false, abordarea are dezavantajele sale, a spus Vincent. Problema este că sistemele AI nu pot înțelege semnificația vorbirii și scrierii umane, așa că vor fi întotdeauna în spatele curbei.
„Cu cât AI ar putea fi mai precisă cu anumite forme de discurs deschis la ură și dezinformare, cu atât cultura umană se va muta mai mult la un cod mai nou și la transmiterea sensului subteran pentru organizare”, a spus Vincent.
Wasim Khaled, CEO al companiei de monitorizare a dezinformarii Blackbird. AI, a declarat într-un e-mail către Lifewire că dezinformarea online este o amenințare în evoluție. Noile sisteme AI trebuie să poată prezice unde vor apărea știrile false în continuare.
„În cele mai multe cazuri, nu puteți construi un produs AI și nu-l puteți spune gata”, a spus Khaled. „Modelele comportamentale se schimbă în timp și este important ca modelele tale AI să țină pasul cu aceste schimbări.”