1.

9.4

2.

9.3

3.

9.1

4.

8.8

5.

8.6

AI deepfakes maken hun politieke debuut met Biden robocall

AI deepfakes maken hun politieke debuut met Biden robocall

Overcomputers Giveaway: Win the latest from Stündenglass and G Pen.

Een onbekend aantal kiezers in New Hampshire ontving op 21 januari 2024 een telefoontje van wat leek op president Joe Biden.

Een opname bevat de stem van Biden waarin kiezers die neigen naar steun voor Biden en de Democratische Partij worden opgeroepen om niet deel te nemen aan de GOP primaire verkiezingen van New Hampshire op 23 januari.

Republikeinen proberen niet-partijgebonden en Democratische kiezers te overtuigen om deel te nemen aan hun primaire. Wat een hoop flauwekul. We weten de waarde van het Democratisch stemmen wanneer onze stemmen tellen. Het is belangrijk dat je je stem bewaart voor de verkiezingen in november. We hebben je hulp nodig bij het kiezen van Democraten op alle niveaus. Stemmen deze dinsdag stelt alleen de Republikeinen in staat om Donald Trump weer verkozen te krijgen. Jouw stem maakt een verschil in november, niet deze dinsdag. Als je wilt worden uitgesloten van toekomstige oproepen, druk dan nu op twee.

Het telefoontje impliceert vals dat een geregistreerde Democraat zou kunnen stemmen in de Republikeinse voorverkiezing en dat een kiezer die stemt in de voorverkiezing ongeschikt zou zijn om te stemmen in de algemene verkiezingen in november.

De staat staat niet-geregistreerde kiezers toe om deel te nemen aan ofwel de Republikeinse of Democratische voorverkiezing.

Het telefoontje, twee dagen voor de primaire, lijkt te zijn een artificiële intelligentie deepfake. Het lijkt ook een poging te zijn om het stemmen te ontmoedigen.

Biden staat niet op het stembiljet vanwege een geschil tussen het Democratic National Committee en de Democraten in New Hampshire over de positie van New Hampshire in het voorverkiezingsschema, maar er is een schrijf-in campagne voor Biden.

Robocalls in verkiezingen zijn niets nieuws en niet illegaal; veel zijn simpelweg pogingen om mensen naar de stembus te krijgen. Maar ze zijn ook gebruikt in campagnes voor het onderdrukken van kiezers.

Wat dit probleem in dit geval verergert, is wat ik geloof dat de toepassing van AI is om Bidens stem te klonen.

In een medialandschap vol ruis maken verstoorde signalen zoals deepfake robocalls het vrijwel onmogelijk om feiten van nep te onderscheiden.

Video: YouTube

Het kantoor van de procureur-generaal van New Hampshire onderzoekt het telefoontje.

Onlangs zijn er online een aantal bedrijven opgedoken die impersonatie als dienst aanbieden.

Voor gebruikers als jij en ik is het zo eenvoudig als het selecteren van een politicus, beroemdheid of leidinggevende zoals Joe Biden, Donald Trump of Elon Musk uit een menu en het typen van een script van wat je wilt dat ze verschijnen te zeggen, en de website maakt automatisch de deepfake.

Hoewel de audio- en video-output meestal haperig en stuntelig is, wanneer de audio wordt geleverd via een robocall, is het zeer geloofwaardig.

Je zou gemakkelijk kunnen denken dat je een opname van Joe Biden hoort, maar in werkelijkheid is het machinegemaakte misinformatie.

Context is belangrijk

persoon die een telefoon vasthoudt met een deepfake van een onbekende beller

Afbeelding: Ronstik / Shutterstock

Ik ben een media- en desinformatieonderzoeker.

In 2019 hebben informatie-wetenschapper Brit Paris en ik in kaart gebracht hoe generatieve tegenstrijdige netwerken – wat de meeste mensen tegenwoordig zien als AI – de manieren transformeren waarop instellingen bewijs beoordelen en beslissingen nemen bij het beoordelen van realistisch uitziende audio- en videomanipulatie.

Wat we ontdekten was dat geen enkel stuk media op zichzelf betrouwbaar is; context is belangrijk voor het maken van een interpretatie.

Als het gaat om door AI geënhanceerde desinformatie, hangt de geloofwaardigheid van deepfakes af van waar je het ziet of hoort of wie het deelt.

Zonder een geldige en bevestigde bron die het als een feit garandeert, kan een deepfake interessant of grappig zijn maar zal het nooit voldoen in een rechtbank.

Desalniettemin kunnen deepfakes schadelijk zijn wanneer ze worden gebruikt in inspanningen om de stemming te onderdrukken of de publieke opinie over verdeeldheid veroorzakende kwesties te beïnvloeden.

Desinformatiecampagnes die zijn verbeterd met AI zijn moeilijk te counteren omdat het ontmaskeren van de bron het volgen van het pad van metadata vereist, dat is de gegevens over een stuk media.

Hoe dit wordt gedaan, varieert, afhankelijk van de distributiemethode: robocalls, sociale media, e-mail, sms of websites.

Op dit moment is onderzoek naar audio- en videomanipulatie moeilijker omdat veel grote technologiebedrijven de toegang tot hun application programming interfaces hebben stopgezet, waardoor onderzoekers geen gegevens kunnen verzamelen over sociale media, en de bedrijven hebben hun vertrouwens- en veiligheidsteams ontslagen.

Tijdig, nauwkeurige, lokale kennis

In veel opzichten stelt door AI verbeterde desinformatie zoals de New Hampshire robocall dezelfde problemen als elke andere vorm van desinformatie.

Mensen die AI gebruiken om verkiezingen te verstoren, zullen waarschijnlijk doen wat ze kunnen om hun sporen te verbergen, daarom is het nodig dat het publiek sceptisch blijft over beweringen die niet komen van geverifieerde bronnen, zoals lokale tv-nieuws of sociale media-accounts van gerenommeerde nieuwsorganisaties.

Het is ook belangrijk dat het publiek begrijpt waartoe nieuwe audio- en visuele manipulatietechnologieën in staat zijn.

Nu de technologie wijdverspreid beschikbaar is en met een cruciaal verkiezingsjaar in het verschiet, is de nep Biden robocall slechts de laatste van wat waarschijnlijk een reeks door AI verbeterde desinformatiecampagnes zal zijn.

Ik geloof dat de maatschappij moet leren om te vereren wat ik TALK noem: tijdige, nauwkeurige, lokale kennis. Ik geloof dat het belangrijk is om sociale mediasystemen te ontwerpen die tijdige, nauwkeurige lokale kennis waarderen boven verstoring en verdeeldheid.

Het is ook belangrijk om het moeilijker te maken voor verspreiders van desinformatie om te profiteren van het ondermijnen van de democratie.

Bijvoorbeeld, het kwaadaardig gebruik van technologie om de opkomst van kiezers te onderdrukken moet krachtig worden onderzocht door federale en staatswetshandhavingsautoriteiten.

Hoewel deepfakes mensen kunnen verrassen, mogen ze ons niet verrassen, ongeacht hoe langzaam de waarheid is in vergelijking met de snelheid van desinformatie.

Gerelateerde blogs

De'Longhi La Specialista Maestro recensie

De beste De'Longhi La Specialista Maestro-aanbiedingen van vandaag De'Longhi La Specialista Maestro: Specificaties Dimensies: 14,48″L x 15″B x 17,5″HGewicht: 35,2 pondCapaciteit: 67 fl ozPomp druk