https://bodybydarwin.com
Slider Image

Adobe leert kunstmatige intelligentie om Photoshopped-afbeeldingen op te snuiven

2020

Mensen manipuleren foto's sinds het begin van consumentencamera's meer dan een eeuw geleden. Als gevolg daarvan hebben cynici geprobeerd om die manipulaties op te snuiven en fraude voor dezelfde tijd aan het licht te brengen. Naarmate de bewerkingstools vorderen, zijn de methoden voor het rondsnuffelen van stiekeme bewerkingen achtergebleven - althans buiten gebieden zoals wetshandhaving en beeldforensisch onderzoek.

Het arsenaal van Adobe voor het vinden van vervalsingen omvat verschillende hulpmiddelen die kunstmatige intelligentie benutten. Onlangs heeft het bedrijf wat onderzoek aangekondigd in samenwerking met UC Berkeley dat is ontworpen om veranderingen in een gezicht te detecteren met behulp van een functie die is ingebouwd in Photoshop genaamd Face Aware Liquify. Er is nog een lange weg te gaan voordat je een stukje software op een foto kunt richten en een waterdicht antwoord kunt krijgen over de authenticiteit ervan, maar projecten als deze kunnen essentieel zijn omdat we steeds meer overtuigende, maar frauduleuze video's tegenkomen die bekend staan ​​als deepfakes.

Dit is niet het eerste onderzoek van Adobe naar op AI gebaseerde beeldauthenticatie. In feite heeft het bedrijf al gegevens vrijgegeven over technieken die zich richten op meer algemene beeldbewerkingstechnieken, zoals het samenvoegen van afbeeldingen, het verwijderen van objecten van een foto of het kopiëren en plakken van een deel van een afbeelding op een andere plek. Dit zijn allemaal bekende namaakstrategieën.

Die technieken komen echter meestal van een menselijke redacteur die de afbeelding en het eindproduct kan zien, maar misschien niet het spoor van aanwijzingen die ze achterlaten in hun werk. Als u bijvoorbeeld een element van de ene plaats naar de andere kopieert en plakt, kan dit het patroon van digitale ruis verstoren dat wordt veroorzaakt door de sensor van een digitale camera.

Het nieuwe onderzoek schetst echter een techniek die is bedoeld om bewerkingen te reverse-engineeren die in eerste instantie op AI vertrouwden.

De Liquify-tool van Photoshop bestaat al generaties lang van de software. Met een afbeelding vloeibaar maken kunt u de pixels rond duwen en trekken. Het is een veelgebruikt hulpmiddel voor retouchers omdat het het gemakkelijk (in voor- of tegenspoed) maakt om een ​​specifiek deel van het lichaam van een model dikker of dunner te laten lijken. Verschillende versies geleden heeft Adobe echter Face Aware Liquify aangekondigd, dat AI gebruikt om individuele elementen op het gezicht te herkennen en retouchers in staat stelt om gemakkelijk variabelen zoals de grootte en vorm van de ogen, neus en mond te manipuleren.

Met Face Aware Liquify kun je sliders helemaal draaien en je kunt een aantal echt nachtmerrieachtige dingen maken, maar gebruik ze subtiel en je kunt het gezicht of de uitdrukking van een persoon veranderen op een manier die soms niet detecteerbaar is als je het origineel nog niet gezien.

In zijn onderzoek toonde Adobe paren van beelden n veranderde foto en het origineel zowel aan het neurale netwerk als aan menselijke proefpersonen. Mensen konden de gewijzigde foto ongeveer 53 procent van de tijd identificeren, maar het neurale netwerk zou naar verluidt een nauwkeurigheid van ongeveer 99 procent hebben bereikt. Verder kon de AI soms ook de bewerkingen ongedaan maken om een ​​benadering van het origineel te krijgen met behulp van een combinatie van aanwijzingen zoals vervorming veroorzaakt door de originele warp-effecten.

Hoewel dergelijke tools handig zijn, is er nog een lange weg te gaan voordat het detectieproces de creatie inhaalt. Hany Farid, hoogleraar informatica van UC Berkeley, heeft onlangs aan de Washington Post verteld dat onderzoekers die deepfake-video's proberen te detecteren, met 100 tegen 1 zijn overtroffen door degenen die werken aan het overtuigender en moeilijker maken van de video's.

En zelfs als de technologie inhaalt, zijn er nog meer variabelen om uit te zoeken, niet in de laatste plaats om mensen te laten vertrouwen op het oordeel van AI, vooral wanneer de inhoud die het evalueert politiek of polariserend kan zijn. Er is ook het eeuwenoude probleem met het verifiëren van afbeeldingen: certificeren dat een foto of video niet digitaal is gewijzigd, kan de boodschap teveel geloofwaardigheid geven. De fotograaf of videograaf kiest nog steeds actief welke informatie wordt gepresenteerd en hoe deze wordt gepresenteerd, zodat het nog steeds mogelijk is om kijkers te misleiden zonder enige digitale manipulatie.

Er is momenteel geen manier om de tools te proberen, dus je kunt het nu nog niet zelf proberen, maar als Adobe en andere bedrijven als het leger blijven werken dit soort technologie, verwacht er meer over te horen. Verwacht ook meer vervalste afbeeldingen en video's.

59 procent korting op ergonomische kantoorartikelen en andere goede deals die vandaag plaatsvinden

59 procent korting op ergonomische kantoorartikelen en andere goede deals die vandaag plaatsvinden

Reis naar het fantastische microbe-rijk dat direct op je gezicht is verborgen

Reis naar het fantastische microbe-rijk dat direct op je gezicht is verborgen

Iedereen kan een genomineerde Nobelprijs zijn.  Dit is de reden waarom een ​​16-jarige klimaatactivist het verdient om te winnen.

Iedereen kan een genomineerde Nobelprijs zijn. Dit is de reden waarom een ​​16-jarige klimaatactivist het verdient om te winnen.