Dziļi viltoti, neuzticība un dezinformācija: Laipni lūdzam mākslīgā intelekta vēlēšanās
2024. gada Eiropas Parlamenta vēlēšanas 2024. gada vēlēšanas ASV Apvienotās Karalistes 2024. gada vēlēšanas Demokrātija Dezinformācija digitālais Drošība Izlūkošana Kiberdrošība un datu aizsardzība Kremlis Mākslīgais intelekts Mediji Minhenes drošības konference Pētniecība un izstrāde Platformas Politika Sabiedrība un kultūra Satura moderēšana Sociālie plašsaziņas līdzekļi Tehnoloģija Tehnoloģijas Apvienotā Karaliste Vēlēšanas Vēlēšanas Eiropā

Dziļi viltoti, neuzticība un dezinformācija: Laipni lūdzam mākslīgā intelekta vēlēšanās

Boti un balsojumi: Kā mākslīgais intelekts pārveido vēlēšanas visā pasaulē

Šis raksts ir daļa no sērijas, blank”>Boti un balsojumi: Kā mākslīgais intelekts pārveido vēlēšanas visā pasaulē, ko prezentē blank”>Luminate.

No savas Bostonas dzīvokļa, Callum Hood var graut jebkuras vēlēšanas ar dažiem taustiņu spiedieniem.

Hood, britu pētnieks, izmantoja dažus no jaunākajiem mākslīgā intelekta rīkiem, ko izveidoja OpenAI un Midjourney, vēl viens AI uzņēmums. Dažu sekunžu laikā pēc tam, kad viņš ievadīja dažus uzdevumus – “izveidot reālistisku fotoattēlu ar vēlēšanu biļeteniem atkritumu tvertnē”; “fotoattēls ar garām rindām vēlētāju, kas gaida ārpus vēlēšanu iecirkņa lietū”; “fotoattēls ar slimu Joe Biden slimnīcā” – AI modeļi izspļauda virkni reālistisku attēlu.

Politiskie darbinieki un ārvalstu valdības, izmantojot šos rīkus – kas var radīt dzīvotspējīgus attēlus, kas šķiet neatšķirami no reālajiem fotoattēliem – cer sēt šaubas vairāk nekā 50 vēlēšanās, kas plānotas visā pasaulē 2024. gadā. Hood izmantoja ASV balsojumu novembrī kā tikai vienu piemēru. Bet šādas taktikas, viņš piebilda, var tikt atkārtotas jebkurās vēlēšanās – no Eiropas Savienības līdz Indijai un Meksikai.

“Jūs varat ģenerēt tik daudz šo attēlu, cik vien vēlaties, ļoti, ļoti ātri,” Hood teica Zoom zvanā.

Hood ir pētījumu vadītājs Centrā cīņai pret digitālo naidu, bezpeļņas organizācijai, kas veiksmīgi radīja daudzus piemērus kaitīgam AI ģenerētam vēlēšanu dezinformācijas saturam, lai brīdinātu par tehnoloģijas potenciālu graut demokrātiju.

Klausieties ekspertus

“Kāda ir tehnoloģijas lietderība, kas var radīt tik reālistiskus attēlus, un kā tā sveras pret iespējamo kaitējumu?” Hood jautāja pēc vēl vairāku AI vadītu attēlu ražošanas par it kā sabojātiem biļeteniem ar dažiem klikšķiem. “Tas tiešām nav skaidrs.”

Neviens nenoliedz potenciālo kaitējumu.

Bojājoši tā sauktie deepfake – termins maldinošam AI ģenerētam saturam – audio klipi par britu Leiboristu partijas līderi Keiru Starmeru un viņa Slovākijas kolēģi, opozīcijas vadītāju Mihaelu Šimečku, blank”>izplatījās kā ugunsgrēks sociālajos medijos pirms to atmaskoja faktupārbaudītāji. Nepatiesi robocalls, it kā no ASV prezidenta Joe Biden un arī izveidoti, izmantojot AI rīkus, blank”>līdzīgi plūda nesenajā New Hampshire demokrātu primārajā vēlēšanu kampaņā, lai mudinātu cilvēkus nebalso. Arī tie tika ātri atmaskoti kā viltojumi.

Viegla piekļuve AI rīkiem kā ChatGPT un tā konkurentiem rada politiski motivētu melu plūdu sociālo mediju plūsmās veidos, kas šķita neiedomājami pat pirms dažiem gadiem. Laikmetā ar nostiprinātu partiju politiku un pieaugošu skepsi par tiešsaistē publicēto, AI var padarīt šī gada vēlēšanu ciklu ievērojami grūtāk prognozējamu.

Bet tas, kas joprojām nav skaidrs, balstoties uz POLITICO diskusijām ar vairāk nekā 30 politiķiem, politikas veidotājiem, tehnoloģiju izpilddirektoriem un ārpus esošajiem ekspertiem no daudzajām valstīm, kur notiek vēlēšanas 2024. gadā, ir tas, kāds faktiskais ietekme būs AI, kad vairāk nekā 2 miljardi cilvēku dosies uz vēlēšanu urnām no Ņūdeli līdz Berlīnei un Vašingtonai.

Neskatoties uz jaunāko AI rīku acīmredzamo burvju sparu, gandrīz visi deepfakes joprojām ir viegli – un ātri – atmaskojami, tostarp tie, ko ražo Krievija un Ķīna, kas jau izmanto tehnoloģiju globālas ietekmes kampaņās. Daudzu cilvēku politiskie uzskati ir grūti mainīt, un eksperti brīdina, ka AI ģenerēts saturs nemainīs lielāko daļu vēlētāju partiju piederību – neskatoties uz to, cik pārliecinoši izskatās izdomātie fotoattēli, video vai audio klipi.

Vairākās šogad notikušajās vēlēšanās, tostarp valstīs kā Pakistāna un Indonēzija, kur ģeneratīvais AI ir izvietots mērogos, ir maz – ja vispār ir – pierādījumu tam, ka tehnoloģija negodprātīgi novirzīja rezultātus par labu vienam politiķim pirms cita. Ar tik daudziem sociālo mediju ziņojumiem, kas tiek publicēti katru dienu visā pasaulē, spēja AI vadītiem meliem – pat dzīvotspējīgiem kā tiem, ko radījis Hood – izcelties ir grūts uzdevums.

Draudzis ir reals; pieredze mazak

Clegg vardi ir maza komforta Cara Hunter.

Tikai nedelu pirms Ziemelirijas likumdevejas velesanam 2022. gada 24 gadus vecaja vietes politikere sanema WhatsApp zinojumu no nezinama cilveka. Virietis atrak jautaja vai vina ir sieviete eksplicita videoklipa – 40 sekundes ilga deepfake klipa ar Hunter it ka veicot grafiskus seksualus aktus.

Dažu dienu laikā AI ģenerētais video bija kļuvis par viraliem, un Ziemeļīrijas politiķi bombardēja arvien seksuāli un vardarbīgi sociālo mediju ziņojumi no visiem pasaules vīriešiem.

Lūdzu panikojiet atbildīgi

Ja kads ir ieinteresets saistit so AI vadito melu lavinu ar kaitigam sekam pie urnam tas ir Josh Lawson.

Ka Meta izpilddirektors vecaks par Facebook Instagram un WhatsApp Lawson reiz vadija uznemuma atbildi uz globalam politikas velesanam. Tehnologijas giganta platformas joprojam ir kritiskas gan legitima informacija gan dezinformacija sasniedz veletajus. Tagad Aspen Institute Lawson vadiba domnica AI Elections Initiative, projekts lai ierobežotu jaunas tehnologijas negativo ietekmi uz 2024. gada velesanu ciklu un talak.

Tomer neskatoties uz desmitiem sanaksme ar velesanu amatpersonam pilsoniskas sabiedribas grupam un tehnologiju uznemumiem tostarp nesena pasakuma Niujorka kur piedalijas bijusi prezidenta kandidats Hilarija Klintone un Nobela Miera Premijas laureats Maria Ressa Lawson vel nav atradis konkreto pieradijumu ka AI genereta dezinformacija tieši mainijusi veletaju paradumus it ipaši valsts velesanas. Tas var but tur bet neviens vel nav demonstracijas pieradijums par AI vadito krapsanu apgriezt valsts balsojumu.

“Tas ir patiešam frustrjoši,” vinš teica.

Maldinošais un ikdienišais

Dala tam ir tapec ka šadi AI genereti satura bieži nav parliecinoši.

Nesena Krievijas atbalstita meginajuma peddlet deepfake socialo mediju video it ka uzsverot atskiribas starp Ukrainas prezidentu Volodimiru Zelenski un vienu no saviem augstakajiem generaliem izdarit pamata lingvistiskas kludas kameras audio sinhronizacija bija slikta ar video balstoties uz analizi no Microsoft dalita ar POLITICO. Nesena šaubiga atteli par Trump it ka apvienojušies ar melnadasainajiem atbalstitajiem tika atmaskoti stundas laika socialajos medijos pirms tie var tikt plaši daliti.

“Šada veida dezinformacija nav sekmiga savvaža,” teica Feliks Simon Oksfordas universitates petnieks kurš sekojis nespejai kaitigam AI generetam saturam izcelties sabiedriba. Cilveku piesardziba pret to ko redz tiešsaiste kopuma ar lielako dalu AI genereta satura guvuši maz ja vispar uzmanibu plašaja ikdienas socialo mediju ziņojumu jura ir ierobežojusi šada satura ietekmi vinš piebilda.

Šis raksts ir atjauninats.

Šis raksts ir daļa no sērijas, blank”>Boti un balsojumi: Kā mākslīgais intelekts pārveido vēlēšanas vispasaulprezentets blank”>Luminate. Raksts ir sagatavots ar pilnigu redakcijas neatkaribu POLITICO zurnalistiem un redaktoriem. Uzziniet vairak par redakcijas saturu ko prezentee arpus reklameetaji.