Il Forum di Davos propone che l’Intelligenza Artificiale limiti le “opinioni odiose”
di Carlos Esteban
Man mano che il progetto globalista fallisce visibilmente in tutto il pianeta, dagli Stati Uniti allo Sri Lanka passando per i Paesi Bassi e l’intera Unione Europea, diventa sempre più imperativo limitare le informazioni scomode , il dissenso nei media e nei social network e le “opinioni odiose”.
Ecco perché il World Economic Forum, meglio noto come Forum di Davos , propone di affrontare le cattive notizie con la censura automatizzata.
È la soluzione che viene avanzata in un articolo apparso sul sito del forum, dal titolo «La soluzione agli abusi online? Intelligenza artificiale più intelligenza umana”, la cui tesi, una volta epurato il testo dei suoi bonari eufemismi, è che né i soli algoritmi né la vigilanza dei censori umani bastano a tenerci all’oscuro di quanto sta accadendo e non conviene da farci conoscere, o su prospettive e voci contrarie al pensiero unico vigente.
È evidente che il flusso di informazioni che viene scaricato quotidianamente sui social network da centinaia di milioni di utenti rende impossibile per un team di censori umani, non importa quanto enorme, controllarlo ed eliminarlo. Questo è ciò che ha reso necessario alle aziende tecnologiche il ricorso al famoso/famigerato “algoritmo”, ovvero schemi linguistici che un programma di intelligenza artificiale può riconoscere e segnalare.
Ma le macchine sono solo macchine, per quanto intelligenti siano, e non sono in grado di rilevare i mille modi a cui ricorrono gli utenti che vogliono aggirare la censura, dagli errori di ortografia deliberati, dall’uso dei segni, dalla separazione delle lettere del proibito parola o parole e altre ancora più ingegnose. Ecco perché il forum propone di combinare il potere della macchina con l’intelligenza umana, facendo in modo che entrambi si rafforzino a vicenda e “imparano” l’uno dall’altro.
“Combinando correttamente la potenza delle ultime tecnologie, la raccolta di dati dalle piattaforme e l’abilità degli esperti in materia che comprendono come operano gli attori delle minacce, il rilevamento intensificato degli abusi online può raggiungere una precisione quasi perfetta”, afferma il forum.
I giri di parole che l’autore dà per chiarire di cosa si tratta veramente (e che, naturalmente, non vale solo o soprattutto per le “minacce”) sono tali che bisogna andare oltre nell’articolo per arrivare al punto: “Con il fornire informazioni multilingue e filtrate dagli esseri umani tramite la piattaforma all’intelligenza artificiale, la stessa l’intelligenza artificiale sarà in grado di individuare abusi nuovi e sfumati prima che colpiscano le principali piattaforme. L’integrazione di questo rilevamento automatizzato più intelligente, conbinato con l’esperienza umana per esaminare i casi limite e identificare falsi positivi e negativi e quindi reintrodurre tali risultati nei set di addestramento, ci consentirà di creare un’intelligenza artificiale con intelligenza umana incorporata”.
Da qui ci chiediamo quanto tempo ci vorrà per l’intelligenza artificiale per rilevare l’ironia , perché forse tra non molto sarà l’unica cosa che ci resta per esprimerci liberamente.
Fonte: El Manifiesto
Traduzione: Luciano Lago