Innovasjon

Deepfakes blir billigere, enklere måter å skape falske kjendiser på

Deepfakes blir billigere, enklere måter å skape falske kjendiser på


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Mange ting har blitt sagt om Tom Hanks. Han er skuespiller, og en god. Hans rykte som en ikonisk alle går foran ham. Men nylig var han ikke seg selv i det hele tatt: bildet folk så av Hanks på Black Hack-datasikkerhetskonferansen var en dypfake utviklet av maskinlæringsalgoritmer, ikke et filmstudio, ifølge et blogginnlegg på FireEyes nettsted.

RELATERTE: GENERATIVE ADVERSARIAL NETWORKS: THE TECH BEHIND DEEPFAKE AND FACEAPP

Deepfakes blir billigere, lettere å trekke av

En datavitenskapsmann ved sikkerhetsselskapet FireEye ved navn Philip Tully genererte "hoax Hankses" for å se hvor enkelt det er å bruke programvare med åpen kildekode fra laboratorier for kunstig intelligens for å starte feilinformasjonskampanjer. "Personer med lite erfaring kan ta disse maskinlæringsmodellene og gjøre ganske kraftige ting med dem," sa Tully, rapporterer Wired.

Når det vises i full oppløsning (til høyre for bildet ovenfor), er det mindre feil - som unaturlige hudstrukturer og nakkefold. Men de er fortsatt relativt nøyaktige reproduksjoner av kjente detaljer i Hanks ansikt. Hans grønngrå øyne, og måten for eksempel pannen hans furer på. Redusert til størrelsen på et miniatyrbilde på sosiale nettverk, kan AI-laget bilder passere for den virkelige avtalen.

For å utvikle de dype falske Hanks-bildene, brukte Tully bare noen få hundre bilder av skuespilleren, og brukte mindre enn $ 100 for å finjustere en åpen kildekode-programvare for ansiktsgjenkjenning for å matche Hanks 'utseende.

FireEye-prosjektet kan gi bekymringer for dype falske kampanjer

For å demonstrere hvor billig og enkelt det er å generere farbare bilder, kan FireEye-prosjektet fremkalle ekstra bekymringer for at nettbaserte feilinformasjonskampanjer kan forverres av AI-teknologi som ser ut og snakker som virkelige offentlige personer.

Disse teknikkene og bildene de legger ut, kalles vanligvis deepfakes - et begrep som er laget av navnet til en Reddit-bruker som i slutten av 2017 la ut pornografiske klipp tilpasset til å omfatte ansiktene til kjendiser.

Foreløpig kan vi være rolige - de fleste internettbaserte deepfakes har lav nok kvalitet til å gjenkjenne, og er hovedsakelig laget av underholdning (eller pornografiske) grunner. Den mest dokumenterte ondsinnede bruken av deepfakes innebærer trakassering av kvinner. Selv om dette er alvorlig, kan det blekne i forhold til hypotetiske tilfeller av ondsinnet bruk, for eksempel en dypfake av en president som bestiller lanseringen av en atombombe.


Se videoen: Using deepfakes to become James Charles and Casey Neistat (Juli 2022).


Kommentarer:

  1. Matyas

    This variant does not suit me. Who else can breathe?

  2. Acker

    Unnskyld meg, har jeg tenkt og du har fjernet denne setningen

  3. Zulkizilkree

    Beklager, meldingen er slettet

  4. Dashura

    Fantastisk, som et alternativ?

  5. Corydon

    I den er det noe. Jeg er enig med deg, takk for hjelpen med dette spørsmålet. Som alltid er alt genialt enkelt.



Skrive en melding