Bron: Techfox
Afbeeldingsbron: gegenereerd door Unbounded AI
Na de release van ChatGPT heeft de ontwikkeling van AI-technologie een doorbraak bereikt van kwantitatieve verandering naar kwalitatieve verandering, en daaropvolgende criminele incidenten zijn ook in een eindeloze stroom naar voren gekomen.
De oorspronkelijke bedoeling van technologische ontwikkeling was oorspronkelijk om de mensheid ten goede te komen.
Maar voordat de migrerende werknemers AI kunnen gebruiken om vervroegd met pensioen te gaan, hebben we AI zien veranderen en AI-fraude…
Onlangs moet iedereen hebben gehoord over de onrechtvaardige baas die bijna werd opgelicht van 4,3 miljoen.
Volgens officiële mediaberichten ontving de heer Guo, de wettelijke vertegenwoordiger van een technologiebedrijf in Fuzhou, op 20 april plotseling een WeChat-video van een vriend.
De vriend vertelde meneer Guo dat zijn vriend op een andere plaats aan het bieden was en een aanbetaling van 4,3 miljoen yuan nodig had, en dat hij rekeningen moest overboeken van een business-to-business rekening, dus wilde hij de bedrijfsrekening van meneer Guo gebruiken om te vereffenen de betaling.
De andere partij vroeg meneer Guo ook om het bankkaartnummer en beweerde dat het geld was overgemaakt naar de rekening van meneer Guo.
Logischerwijs zou zo’n grote som geld zeker niet naar believen worden overgemaakt.
De heer Guo “bevestigde” echter de identiteit van zijn vriend tijdens het videogesprek. Zowel zijn gezicht als zijn stem waren precies hetzelfde als die van zijn vriend.
Daarnaast heeft de andere partij ook een screenshot van het overschrijvingsbewijs verstrekt.
Hij geloofde dus dat het echt was en maakte het geld binnen 10 minuten over.
Pas toen hij telefonisch contact opnam met zijn vriend, realiseerde hij zich plotseling dat hij was bedrogen.
In een interview zei de heer Guo: “Van het begin tot het einde heeft hij het nooit met mij gehad over het lenen van geld. Hij zei dat hij me eerst het geld zou bellen en me het dan zou laten overboeken naar de rekening van zijn vriend. en hij belde me op dat moment. In de video bevestigde ik ook het gezicht en de stem in de video, dus ik ontspande mijn hoede.”
Wie had gedacht dat oplichters niet alleen de WeChat-ID’s van vrienden stalen, maar ook intelligente AI-gezichtsveranderende en onomatopee-technologie gebruikten om zich voor te doen als vrienden en op eigen initiatief WeChat-video’s te starten.
Dit bedrog zou voor iedereen moeilijk te doorzien zijn.
Leugenaars zijn zo sluw
Gelukkig hebben de politiebanken in Fuzhou en Baotou na ontvangst van het alarm snel het stopbetalingsmechanisme geactiveerd en met succes 3,3684 miljoen yuan teruggevorderd.
Er is echter nog steeds 931.600 yuan overgemaakt en dit deel van het geld wordt mogelijk niet teruggevorderd…
Zodra het incident naar buiten kwam, ontplofte het onmiddellijk hete zoekopdrachten.
Bron afbeelding Weibo
In het verleden deden oplichters zich vaak voor als familie en vrienden om op te lichten, maar onder normale omstandigheden kunnen ze, zolang ze maar bellen of videobellen met de betrokkene, de zwendel doorzien.
Maar nu zijn video- en telefoongesprekken niet meer te vertrouwen.
De drempel om AI in te zetten voor het genereren van spraak en video wordt steeds lager.Mensen die deze technologie begrijpen, kunnen fraude plegen zolang ze hun geest een beetje bewegen.
Eerder maakte het tv-station Huizhou ook al melding van een AI-fraudezaak.
Een vader kreeg een telefoontje over de ontvoering van zijn dochter, de andere partij vroeg hem om binnen een half uur een losgeld van 300.000 yuan klaar te maken, anders zou hij het kaartje verscheuren.
Beeldbron Huizhou TV-station
De kreet van de dochter kwam van de andere kant van de telefoon, bijna identiek aan de stem van de dochter van de cliënt, en de vader geloofde het bijna.
Gelukkig hield zijn vrouw een oogje in het zeil en belde 110, om erachter te komen dat het telefoontje van zojuist oplichterij was.
Naast het gebruik voor fraude, kan AI-gezichtsveranderende technologie ook voor andere misdaden worden gebruikt.
Bijvoorbeeld het recente bezorgincident met de “vrouwelijke ster”.
Veel netizens ontdekten dat toen ze naar de live-uitzendkamer klikten, de ankers die goederen brachten allemaal populaire actrices waren, zoals “Yang Mi”, “Dilraba Di Lieba” en “Tong Liya”.
Het bleek dat sommige ankers real-time software voor het veranderen van gezichten gebruikten om hun gezichten te vervangen door die van vrouwelijke sterren, en vervolgens hard werkten om goederen te verkopen in de live-uitzendruimte.
Het anker veranderde zijn gezicht in “Dilraba Di Lieba” en bracht goederen in de live-uitzendkamer
Sommige netizens die de waarheid niet kennen, zagen de live-uitzending van beroemdheden “die hun gezicht lieten zien” en dachten dat het echt de beroemdheden zelf waren. In feite is dit gewoon oplichterij van blogverkeer.
Sommige advocaten zeiden dat dit soort gedrag wordt verdacht van fraude of valse publiciteit, waardoor het publiek ten onrechte denkt dat beroemdheden goederen meebrengen.
Als er een kwaliteitsprobleem is met het product, of als het anker ongepaste opmerkingen maakt bij het brengen van de goederen, kan dit een negatieve invloed hebben op de ster zelf. Daarom heeft de ster het recht om te vervolgen.
AI gezichtsveranderende technologiedemonstratie
Hoewel het illegaal is om dit te doen, zijn de kosten van het beschermen van rechten echter zo hoog dat het moeilijk is om rechten te verdedigen.
De drempel om de technologie te gebruiken is te laag, in combinatie met het grote aantal gebruikers is het erg moeilijk om de inbreukmaker te vinden.
Voorlopig blijft de technologie in een juridisch grijs gebied.
Er is zelfs een speciale AI-tutorial voor het veranderen van het gezicht op internet verschenen… Het lijkt een nieuw verkeerswachtwoord te zijn geworden.
Bron afbeelding Douyin screenshot
Sommige gewone mensen willen het misschien gewoon gebruiken voor amusement, maar er zijn altijd mensen die het proberen te gebruiken voor winst of zelfs slechte dingen doen.
Humei was van mening dat de wet alleen hen misschien niet zou kunnen beheersen, en dat magie moet worden gebruikt om magie te verslaan.
Ik weet niet of er een expert is die een tegentechnologie kan bedenken? Stop ze op het niveau van beoordeling en gebruik AI om AI-misdaden te stoppen? Vergelijkbaar met de relatie tussen hackers en hackers.
Deze high-end scams gemaakt met AI-technologie zijn immers bijna machteloos voor gewone mensen.
Gelukkig worden er zo snel mogelijk relevante wetten afgekondigd om AI-technologie te reguleren.
In december vorig jaar werd de “Regeling voor het beheer van diepe synthese van internetinformatiediensten” vrijgegeven, die duidelijke beperkingen heeft op inhoud met diepe synthese, zoals het genereren van gezichten, vervanging, manipulatie en synthetische menselijke stem en imitatiestem.
Afbeeldingsbron Guangming.com
Niet lang geleden bracht Douyin ook de “Watermark and Metadata Specification for Content Identification Generated by Artificial Intelligence” uit, die het gebruik van generatieve AI verbiedt om inbreukmakende inhoud te publiceren.
De wereld roept op tot verplichte regelgeving voor door AI gegenereerde inhoud, en OpenAI overweegt ook om een digitaal watermerk toe te voegen aan ChatGPT om misbruik van het model te voorkomen.
Humei hoopt dat de vooruitgang van AI-technologie voordelen kan opleveren voor meer mensen, in plaats van een wapen te worden voor sommige schurken om misdaden te plegen.
Referenties:
Lei-technologie: hoe AI-fraude voorkomen van 4,3 miljoen gewone mensen die zijn opgelicht door AI-gezichtsverandering in 10 minuten?Dringend doorsturen naar vrienden
CCTV-nieuws: “AI Face Swapping”-fraude kan niet worden voorkomen? Gebruik “wet” om “magie” te verslaan
Tencent.com: De hete zoekopdrachten op AI-zwendel zijn in orde, en de “vriend” die “zijn gezicht veranderde” bedroog hem 4,3 miljoen…
Informatiebron: samengesteld uit 8BTC door 0x Information.Copyright behoort toe aan de auteur, mag zonder toestemming niet worden gereproduceerd