Robotikk

Killer Robots kan forårsake masse grusomheter

Killer Robots kan forårsake masse grusomheter



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Roboter vil bli brukt som soldater i fremtiden. Faktisk distribueres allerede noen roboter og droner av militæret. Intelligente og autonome roboter som er programmert av mennesker for å målrette og drepe, kan begå forbrytelser i fremtiden. Med mindre det er en traktat om at robotikk og kunstig intelligens (AI) skal brukes på en ansvarlig måte.

Å ha teknologien som kan bygge roboter som dreper tilgjengelig, betyr ikke at vi må bruke den. Som onkelen til Spiderman en gang sa, "med stor kraft kommer stort ansvar."

Eksperter innen maskinlæring og militærteknologi sier at det ville være teknologisk mulig å bygge roboter som tar avgjørelser om hvem man skal målrette og drepe uten å ha en menneskelig kontroller involvert. Fordi ansiktsgjenkjenning og beslutningstaksalgoritmer stadig blir kraftigere, vil det bli lettere å opprette oppretting av slike typer roboter.

Risikoen ved Killer Robots

Forskere innen kunstig intelligens og offentlig politikk prøver å gjøre saken oppmerksom på at morderroboter er en dårlig idé i det virkelige liv. Opprettelsen av fullt autonome våpen ville gi nye tekniske og moralske dilemmaer.

Forskere og aktivister har av denne grunn presset FN og verdens regjeringer til å erkjenne problemet og vurdere et forebyggende forbud.

Kan AI brukes som et våpen?

Det korte svaret er, ja. Akkurat som enhver annen eksisterende teknologi, kan kunstig intelligens brukes til gode, men også til å drepe. Ansiktsgjenkjenning og gjenkjennelse av gjenstander er teknologier som har blitt bedre de siste årene. Vi kan si at de har blitt langt mer nøyaktige, men de er langt fra perfekte.

Ansiktsgjenkjenning og gjenkjennelse av gjenstander er ferdigheter som sannsynligvis blir viktige som en del av et verktøysett for dødelige autonome våpen (LAWS). Imidlertid er det også ganske enkelt å lure disse teknologiene, hvis man virkelig vil lure dem.

Militære roboter: Nåværende og fremtid

Militære roboter er fjernstyrte autonome roboter eller droner som er designet for militære applikasjoner. Militære roboter kan brukes til transport, søk og redning, og også for angrep, med implikasjoner av å drepe mennesker og til og med ødelegge byer.

Noen av disse systemene distribueres for tiden, og andre er under utvikling. Noen militære roboter er utviklet under streng hemmelighold for å hindre andre i å lære om deres eksistens.

USA flyr allerede militære droner over områder der USA er i krig eller er engasjert i militære operasjoner. Så langt bestemmer menneskelige kontrollere når disse dronene skal skyte.

Selv om dødelige autonome våpen (LOV) ikke eksisterer ennå, - eller det er det vi tror - teknologien for å erstatte de menneskelige kontrollerne med en algoritme som tar beslutningen om når og hva du skal skyte, faktisk. Noen AI-forskere mener at LOV, i form av små droner, kan brukes som våpen på mindre enn to år.

Mens dagens droner overfører en video-tilbakemelding til en militærbase, der en menneskelig soldat tar avgjørelsen om dronen skal skyte på målet eller ikke, med et fullt autonomt våpen, vil ikke soldaten ta den avgjørelsen lenger. En algoritme ville ta avgjørelsen i stedet.

Dødelige autonome våpen (LOV): Er mennesker i fare?

Era med maskindrevet krigføring er ikke så langt inn i fremtiden. Militæret har eksperimentert med roboter som kan være en del av slagmarken og brukes som drapsvåpen. Fremtidens kriger kan da være mer høyteknologisk tilført og mindre menneskelige. Hvilke konsekvenser for menneskeheten ville dette medføre?

Risikoen med dødelige autonome våpen (LAWS), også kjent som morderroboter, er reell. Noen kunstig intelligens (AI) forskere har mange grunner til å støtte deres enighet om at verden bør forby utvikling og utplassering av dødelige autonome våpen.

Årsaken er ganske enkel, militære makter kunne masseprodusere en hær av draproboter ganske billig. Imidlertid kunne menneskeheten betale en høy pris; produksjon og aktivering av morderroboter ville øke sannsynligheten for spredning og massedrap.

Mordroboter: Et menneske er alltid ansvarlig for enhver handling en robot tar

På dette tidspunktet oppstår spørsmålet, hvem skal være ansvarlig for en robot? Og hva roboethics bør brukes på dødelige autonome roboter? Under en krig, eller til og med under en mindre konflikt, kan ting gå ut av hånden. Bør morderroboter ta total kontroll?

Roboter som er ment å bli brukt i en krigskonflikt som mekaniske våpen innebygd med kunstig intelligens og maskinlæring, bør ha en av / på-bryter av noe slag.

I dag representerer Isaac Asimovs tre lover om robotikk flere problemer og konflikter for roboter enn de løser.

Robotikere, filosofer og ingeniører ser en pågående debatt om maskinetikk. Maskinetikk - eller roboetikk - er et praktisk forslag til hvordan man samtidig kan konstruere og gi etiske sanksjoner for roboter.

Roboethics tar for seg atferdskodeksene som ingeniører for robotdesignere må implementere i en robots kunstige intelligens. Hvem eller hva skal holdes ansvarlig når eller hvis et autonomt system ikke fungerer eller skader mennesker?

The Three Laws of Robotics: Bør de brukes på morderroboter?

I 1942 introduserte science fiction-forfatteren Isaac Asimov de tre lovene om robotikk - også kjent som Asimovs lover - i novellen. Løpe rundt. Selv om Asimovs tre lover om robotikk var en del av en fiktiv verden, kan de være et godt utgangspunkt for robotprogrammering i dag.

Før og hvis regjeringer setter ihjel dødelige autonome våpen, bør de sørge for at de kan forhindre morderroboter designet for å bli utplassert i krigssoner fra å starte en krig av seg selv, eller forårsake masse grusomheter som å drepe sivile.

Noen vil kanskje tro at de følgende lovene om robotikk strider mot det en soldat skal gjøre. Kanskje det er tross alt hovedpoenget. Med andre ord, kanskje et menneske ikke burde gi det skitne arbeidet til en maskin som ennå ikke er i stand til å individualisere situasjoner og ta en dom.

  • En robot kan ikke skade et menneske, eller ved passivitet, la et menneske komme til skade

  • En robot må adlyde ordrene gitt av mennesker, bortsett fra der slike ordrer er i strid med den første loven

  • En robot må beskytte sin egen eksistens så lenge en slik beskyttelse ikke er i strid med den første eller andre loven

Stopp Killer Robots

Det er en kampanje for å stoppe Killer Robots, en koalisjon av ikke-statlige organisasjoner som forsøker å forhindre forebyggende dødelige autonome våpen (LAWS).

De forente nasjoners (FN) generalsekretær har oppfordret stater til å flytte raskt for å takle bekymringer over dødelige autonome våpensystemer i sin rapport om beskyttelse av sivile i væpnet konflikt fra 2020. Dette er den første FN-beskyttelsen av sivile rapporter siden 2013 som fremhever generelle bekymringer over mordereoboter.

I 2020-rapporten finner generalsekretær António Guterres at "alle sider ser ut til å være enige om at det i det minste er nødvendig å beholde menneskelig kontroll eller dom over bruk av makt." Han bemerker også at "et økende antall medlemsstater har etterlyst et forbud mot LOV." Siden november 2018 har FNs generalsekretær gjentatte ganger uttrykt sitt ønske om en ny internasjonal traktat om å forby drapsmotroboter.

Kampanjen for å stoppe killerroboter ber FN å oppfordre stater til å bli enige om "begrensninger og forpliktelser som skal brukes på autonomi i våpen." Stater bør starte forhandlinger nå om en ny internasjonal traktat for å forby fullt autonome våpen mens de beholder meningsfull menneskelig kontroll over bruk av makt.

Hvordan drepe en robot

Mest sannsynlig sender dødelige autonome robotprodusenter sine drapsroboter med en instruksjonsmanual der det er et alternativ å eksternt sette inn en sikkerhetskode for å deaktivere en drapsmannrobot.

Hvis det ikke er et alternativ, vil en pålitelig måte å drepe en robot være ved å bruke en elektromagnetisk puls (EMP) for å indusere en høy strøm som vil brenne ut robotens kretsløp. Selvfølgelig antar dette at drapsmannroboten ikke er beskyttet av et Faraday Cage.


Se videoen: Autonomous Killer Robots - Future of Russian Army (August 2022).