Il 2024 sarà un anno caratterizzata da elezioni che si terranno in ogni angolo del pianeta, dagli Stati Uniti, all’Europa, all’India alla Russia. L’80% della popolazione mondiale sarà chiamata alle urne e saranno le prime elezioni da quanto esiste l’intelligenza artificiale.
E proprio questo è uno dei contesti in cui si teme che i chatbot possano rivelare il loro lato negativo, influenzando le consultazioni attraverso la “disinformazione di massa”.
Per questo OpenAI, la società che ha creato ChatGpt, non permetterà l’uso del suo programma per generare testi e immagini a fini elettorali e introdurrà strumenti per combattere la disinformazione, prevenire gli abusi e fornire trasparenza.
“Vogliamo assicurarci che la nostra tecnologia non venga utilizzata in modo da compromettere questo processo – spiega OpenAI in una nota – Come ogni nuova tecnologia, questi strumenti comportano vantaggi e sfide. Sono anche senza precedenti e continueremo a evolvere il nostro approccio man mano che scopriremo come vengono utilizzati i nostri strumenti. Affiniamo regolarmente le nostre politiche d’uso per ChatGPT e l’API, man mano che impariamo a conoscere il modo in cui le persone usano o tentano di abusare della nostra tecnologia. Fino a quando non ne sapremo di più, non consentiremo alle persone di creare applicazioni per campagne politiche e lobbying”, dice OpenAI che , per quanto riguarda le immagini create dal suo software DALL-E, sta sperimentado “un classificatore di provenienza”. Negli USA, quando a ChatGpt saranno fatte domande sulle elezioni, gli utenti saranno indirizzati al sito di informazioni sul voto CanIVote.org.