CouranD #88 - Het dividend van de leugenaar
Over het afbrokkelen van de realiteit, psychedelische AI-filmpjes, de complexe schoonheid van de Japanse taal, en meer
Goedezondag,
Welkom bij editie nummertje 88 van deze nieuwsbrief. De afgelopen twee weken heb ik weer van alles gelezen en gekeken, en vandaag neem ik je mee op reis langs de zaken die mij opvielen.
Ik keek de afgelopen twee weken drie documentaires. Three Identical Strangers (tip van de DocUpdate via POM), over een identieke drieling die bij de geboorte van elkaar gescheiden werden. Escaping Twin Flames, een vierdelige docuserie over een bizarre online sekte in de VS die zich richt op het vinden van ‘ware liefde’. En Als ik mijn ogen sluit, een documentaire over de vrouwen in de Japanse kampen in Nederlands-Indië tijdens de Tweede Wereldoorlog. Mijn beide oma’s zaten in zo’n kamp. Aangrijpend, en mooi gemaakt.
Maar goed, daar gaat deze nieuwsbrief niet over. “Waar dan wel over!?” is je begrijpelijke reactie. Deze editie bespreek ik - om het maar meteen een beetje dramatisch te formuleren - het afbrokkelen van de werkelijkheid als gevolg van het gemak waarmee je tegenwoordig nep-afbeeldingen kan maken. Lees snel verder!
En ja, natuurlijk mogen de Bits & Bytes niet ontbreken. Onder andere over een minimalistische podcast app, Worldcoin, psychedelische AI-filmpjes, en meer.
Enjoy!
👨🏽⚖️ Plausibele ontkenning
De drempel voor het maken van overtuigende nepafbeeldingen wordt steeds lager, en daarmee wordt het steeds makkelijker om ‘plausibele ontkenning’ te veinzen.
Het is een tactiek die Donald Trump al toepast sinds hij voor het eerst van de gouden roltrap afdaalde om zijn kandidatuur voor president van de Verenigde Staten aan te kondigen in 2015. “Flood the zone with shit”, zoals zijn adviseur Steve Bannon het verwoordde. Hoe meer fake news je de wereld in slingert, hoe moeilijker (en tijdsintensiever) het wordt om echt van nep te onderscheiden, en hoe makkelijker het wordt om ‘echte’ feiten in twijfel te trekken. Maar die tactiek werkt niet altijd, zeker niet als er foto’s zijn die de werkelijkheid lieten zien zoals hij daadwerkelijk was (bijvoorbeeld de grootte van de menigte bij de inauguratie van Trump).
Maar helaas, ook die laatste strohalm, de ouderwetse foto, het onomstotelijke ‘bewijs’, gevreesd door verdachten en gretig gebruikt door journalisten in hun zoektocht naar de waarheid, lijkt ons niet meer te kunnen helpen. We zijn in een tijdperk beland waar politici de authenticiteit van echte foto’s in twijfel trekken, gebruikmakend van het gemak waarmee men tegenwoordig foto’s kan faken met behulp van AI: Trump claimde dat een authentieke foto van een grote bijeenkomst van Kamala Harris met duizenden toeschouwers gefaked was. Zoals Casey Newton het verwoordt:
this is a textbook example of a politician hoping to capitalize on the liar’s dividend: because someone could use digital tools to fake an image like this, Trump is able to create doubt in his followers’ minds as to whether Harris’ campaign did.
Met de recente ontwikkelingen worden dit soort claims alleen maar plausibeler.
Met de nieuwste modellen van de Pixel smartphone heeft Google het mogelijk gemaakt om met een paar woorden (niet-bestaande) dingen en mensen toe te voegen aan afbeeldingen. The Verge laat zien waar dat toe kan leiden.
Ondertussen heeft xAI (het AI-bedrijf van Elon Musk) de afbeeldingsgenerator van Grok de wereld ingeslingerd. Met weinig beperkingen, waardoor je in een handomdraai bestaande personen in allerlei twijfelachtige situaties kan plaatsen.
Maar er wordt ook gewerkt aan verschillende tools die helpen bij het onderscheiden en markeren van AI-afbeeldingen.
C2PA authentication, een technische standaard die informatie toevoegt aan een afbeelding, waardoor je kan herkennen of deze (door AI) gemanipuleerd is. Hoewel de standaard breed omarmt wordt, is de adoptie nog erg laag. Bovendien is het makkelijk te omzeilen door gewoon een screenshot van de afbeelding te maken, waardoor al dit soort metadata verloren gaat.
SynthID van Google, een soort watermerk waarmee Google Deepmind AI-gegenereerde afbeeldingen kan herkennen. Dit zit verwerkt in de afbeelding, dus omzeilen via een screenshot werkt niet. Jammer alleen dat dit niet is toegevoegd aan de eerdergenoemde feature in de nieuwste Pixel telefoons van Google.
Maar goed, we stevenen af op een wereld waarin het grootste deel van de content die we op het internet kunnen vinden ‘nep’ is. Dus wellicht is het dan beter om systemen die ‘authenticiteit’ herkennen en markeren, in plaats van andersom. We konden daarvoor altijd rekenen op de journalistiek, maar de vraag is of de journalistiek dit nog kan bijbenen zonder hulpmiddelen. *No one’s ready for this.*
💡Bits & Bytes
Google kondigde tijdens het Pixel 9-event nog veel meer aan dan alleen de feature waarmee je naar hartelust mensen en dingen kan toevoegen aan foto’s, met alle gevolgen van dien (zie het stuk hierboven).
Neuecast, een nieuw, minimalistisch podcast-appje. Nog niet geprobeerd, maar ziet er gelikt uit.
Disney wilde een rechtszaak over de dood van een vrouw in Disney World verwerpen omdat haar man een abonnement op Disney+ had. Dit nieuws leidde tot nogal wat ophelf, omdat het natuurlijk totaal absurd is. Zoals altijd lag het wat genuanceerder, en uiteindelijk gaat de zaak toch door.
Status is een nieuwe nieuwsbrief over macht in de mediaindustrie.
Profiel van Bloomberg over Worldcoin, je weet wel, dat bedrijf van Sam Altman dat ervoor moet zorgen dat je kan bewijzen dat je mens bent als AI straks de boel heeft overgenomen. En ze doen ook iets met crypto 🤨
Flipboard (een soort reader app) is verbonden met ActivityPub en daarmee onderdeel van de fediverse. Zo wordt Flipboard een plek waar je over het nieuws kan lezen, en er ook meteen over kan praten. “Flipboard’s fediverse expansion could make the app a one-stop shop for your news and social media posts from the people you’re most interested in.”
Het gaat niet goed met Humane, het bedrijf achter de geflopte ‘AI Pin’, een soort broche die je op je kleding draagt en je zou moeten helpen met allerlei dagelijkse taken zonder dat je je telefoon hoeft te gebruiken.
In de categorie psychedelische AI content: hier, hier en hier (die laatste is echt next level)
Interessant artikel over de complexe gelaagdheid en wendbaarheid van de Japanse taal.
Meta stopt met CrowdTangle, een onderzoekstool die veel door journalisten en academici gebruikt werd om openbare inhoud op sociale media te analyseren. De EU vindt dat niet leuk.
Over het verschil tussen Markov chains en LLM (Large Language Models), met gratis een uitleg over de kenmerken van humor: schijnbaar zijn Markov chains grappiger dan LLMs.
Vijftien belangrijke technologische trends volgens de consultants van McKinsey. Natuurlijk mogen de diagrammen en modellen die we van consultants kunnen verwachten niet ontbreken.
Als onderdeel van een rechtszaak rondom X is bekend geworden wie de mede-investeerders waren toen Elon Musk Twitter overnam
🕓 Een jaar geleden…
…stuurde ik editie #65, over de mogelijke terugkeer van de chronologische tijdlijn in de apps van sociale platforms.
📷 Beeld van de week
De winnaars van de IPPA awards voor iPhone-fotografie
Ben je hier via-via? Schrijf je in voor de nieuwbrief om elke twee weken een nieuwe editie van CouranD te ontvangen!
En, vond je dit leuk? Kan het beter? Heb je tips voor interessante onderwerpen? Laat het me weten! Je kan gewoon mailen naar courand@substack.com, of op Substack direct onder deze editie te reageren. En vergeet ‘m niet te delen!
Ocky