Forumul Economic de la Davos susține un plan global de supraveghere a conținutului online folosind Inteligența Artificială!
Forumul Economic Mondial a publicat luna aceasta un articol în care propune crearea unui sistem de cenzură online, care va funcționa printr-o combinație între inteligența artificială și cea umană, sistem care ar globaliza urmărirea „gândirii incorecte”.
Avertizând cu privire la o „lume întunecată a pericolelor online”, situație pe care vrea să o soluționeze, Forumul Economic Mondial (WEF) a publicat luna aceasta un articol în care propune o „soluție” la „abuzul online”, soluție la care să contribuie inteligență artificială (AI) combinată cu cea umană.
Se propune un sistem bazat pe inteligența artificială, care să automatizeze cenzurarea „dezinformarii” și „discursului instigator la ură” și să împiedice răspândirea „abuzului asupra copiilor, extremismului, dezinformarii, discursului instigator la ură și fraudei” online, scrie childrenshealthdefense.org, care semnalează apariția articolului. Chiar dacă Forumul mondialist al lui Klaus Schwab a adăugat o notă ulterioară apariției articolului online, în care se afirmă că materialul nu aparține organizației, susținerea ideilor este implicită, prin publicarea lui. Altfel, nu ar fi făcut-o. Dacă ar fi un „forum de idei”, cum se auto-proclamă, de ce nu îi publică articolele de specialitate ale lui Robert F. Kennedy sau Joseph Mercola?! Întrebare retorică.
Potrivit autorului articolului publicat de Forumul Economic Mondial, Inbal Goldberger, doar „echipele umane de încredere și siguranță” nu sunt pe deplin capabile să controleze un astfel de conținut online.
Goldberger este vicepreședinte al ActiveFence Trust & Safety, o companie de tehnologie cu sediul în New York și Tel Aviv, care, după cum susține, „colectează automat date din milioane de surse și aplică IA contextuală pentru a susține încrederea și operațiunile pentru menținerea siguranței”.
În loc de a se baza doar pe echipele umane pentru moderare, Goldberger propune un sistem bazat pe „inteligență asistată de oameni, în mai multe limbi, în afara platformelor” – cu alte cuvinte, inputuri furnizate de surse umane „experte”, care ar crea apoi „seturi de învățare” prin care ar antrena IA să recunoască conținutul pretins dăunător sau periculos.
Această „inteligență în afara platformelor” – însemnând mai mult învățare automată decât IA în sine, potrivit lui Didi Rankovic de la ReclaimTheNet.org – va fi colectată din „milioane de surse”, apoi, unificată, pentru a putea fi folosită ulterior pentru „deciziile de eliminare a conținutului” de către „platformele de internet”.
Potrivit lui Goldberger, sistemul ar îmbina „mecanismele de detectare automată mai inteligente, cu expertiza umană” și va permite crearea de „IA cu inteligență umană integrată”.
Acest lucru ar oferi, de asemenea, protecție împotriva „actorilor cu metode tot mai avansate, care folosesc abuziv platformele în moduri diferite”.
„Un moderator uman care este expert în supremația albă europeană nu va fi neapărat capabil să recunoască un conținut dăunător în India sau narațiuni care propagă dezinformare în Kenya”, a explicat Goldberger.
Cu toate acestea, „combinând în mod unic puterea tehnologiei inovatoare, colectarea de informații din afara platformelor și abilitățile experților în conținut, care înțeleg cum funcționează actorii reprezentând astfel de amenințări, detectarea corespunzătoare a abuzului online, poate atinge o precizie aproape perfectă”, întrucât aceste seturi de învățare sunt „integrate” în IA de-a lungul timpului, potrivit lui Goldberger.
Acest lucru ar permite „echipelor de încredere și siguranță” să „oprească amenințările care apar în online, înainte ca acestea să ajungă la utilizatori”.
Într-o analiză referitoare la modul în care ar arăta propunerea lui Goldberger în practică, bloggerul Igor Chudov a explicat cum are loc astăzi controlul conținutului pe rețelele sociale, pe o platformă.
De exemplu, moderatorii de conținut de la Twitter consultă numai conținutul postat pe platforma respectivă, dar nu și conținutul pe care îl postează un utilizator în afara Twitter.
Chudov spune că acesta este motivul pentru care WEF pare să susțină propunerea de „extindere [a supravegherii] dincolo de principalele platforme de Internet, pentru a colecta informații despre oameni și idei de pretutindeni”.
„O astfel de abordare”, scrie Chudov, „le-ar permite să știe mai bine ce persoană sau idee să cenzureze – pe toate platformele majore, simultan.”
„Informațiile” colectate de sistem din „milioanele de surse” ale sale ar detecta, potrivit lui Chudov, „gânduri care nu sunt pe placul lor”, rezultatul fiind „decizii de eliminare a conținutului, transmise unor entități precum Twitter, Facebook și așa mai departe. … [Aceasta înseamnă] o schimbare majoră față de status quo-ul în care fiecare platformă decide ce să facă, în baza mesajelor postate doar pe platforma respectivă.”
În acest mod, „urmărirea gândirii incorecte devine [o practică] globalizată”, conchide Chudov.
Ca răspuns la propunerea WEF, ReclaimTheNet.org subliniază că o astfel de strategie echivalează cu a exercita presiune asupra rețelelor sociale, pentru a le determina să practice „cenzura preventivă”.
Chudov consideră că WEF promovează o astfel de propunere pentru că „devine îngrijorată” că „opiniile indezirabile devin tot mai populare, iar cenzorii online nu pot ține pasul cu milioane de oameni, care devin tot mai conștienți și mai vocali”.
Potrivit Daily Caller, „documentul WEF nu menționează cum vor fi aleși membrii echipei de instruire AI, cum vor fi trași la răspundere sau dacă țările vor putea exercita controale asupra AI”.
Într-o notă explicativă care însoțește articolul lui Goldberger, WEF asigură publicul că conținutul articolului „este opinia autorului, nu a Forumului Economic Mondial”, adăugând că „acest articol a fost distribuit pe site-uri care denaturează în mod obișnuit conținutul și răspândesc dezinformare.”
Cu toate acestea, WEF pare deschisă să îmbrățișeze propuneri precum cea a lui Goldberger. De exemplu, într-un articol din mai 2022 de pe site-ul său, WEF propune un „Consiliu de supraveghere” ca exemplu de „model de guvernare în lumea reală” care poate fi aplicat în cazul guvernării în metavers.
Și, după cum a remarcat Chudov, „moderarea conținutului de către IA se înscrie direct într-un sistem de credit social [stabilit de] IA”.
ARTICOL PRELUAT DE PE www.activenews.ro: https://www.activenews.ro/covid-era-covid-si-marea-resetare-the-great-reset/POLITIA-MONDIALA-A-INTERNETULUI.-Forumul-Economic-de-la-Davos-sustine-un-plan-global-de-supraveghere-a-continutului-online-folosind-Inteligenta-Artificiala-I-175747