Een Zuid-Koreaanse universiteit experimenteert met moordenaarrobots die mensen herkennen

Je weet hoe het gaat: je studeert, krijgt een onderzoeksbeurs, kijkt een paar terminatorflicks na - de volgende logische stap is het maken van moordenaarsbots. duh.

Gisteren kwam naar voren dat Korea's Advanced Institute of Science and Technology (KAIST) een partnerschap heeft met defensieproducent Hanwha Systems - een besluit dat academici wereldwijd hebben bekritiseerd.

Een boycotbrief doet nu de ronde, die is ondertekend door meer dan 50 professoren, geleid door Toby Walsh, een professor aan de Universiteit van New South Wales, die vertelde The Guardian, "Het ontwikkelen van autonome wapens zou de veiligheidssituatie op het Koreaanse schiereiland erger maken".

Hij gelooft dat het partnerschap de kunstmatige intelligentie bewapeningsrace zal versnellen door te zeggen: "Er zijn veel geweldige dingen die je kunt doen met AI die levens redden, ook in een militaire context, maar om openlijk te verklaren dat het doel is om autonome wapens te ontwikkelen en een partner als deze enorme bezorgdheid wekt."

"Dit is een zeer gerespecteerde universiteit die samenwerkt met een zeer ethisch dubieuze partner die de internationale normen blijft schenden."

De president van de South Korean University protesteerde en legde een verklaring af waarin hij beweerde: "KAIST is niet van plan om deel te nemen aan de ontwikkeling van dodelijke, autonome wapensystemen en moordende robots".

"Ik bevestig nogmaals dat KAIST geen onderzoeksactiviteiten zal uitvoeren die in strijd zijn met de menselijke waardigheid, inclusief autonome wapens zonder zinvolle menselijke controle."

Hij beweert dat het doel van het partnerschap is om "een stevige basis te leggen voor de ontwikkeling van de nationale defensietechnologie", zoals "op AI gebaseerde commando- en beslissingssystemen, samengestelde navigatiealgoritmen voor megaschaalloze onbemande voertuigen, op AI-gebaseerde slimme vliegtuigtrainingssystemen, en op AI gebaseerde tracking- en herkenningstechnologie voor smart objects. "

Het bovenstaande gebruik van AI klinkt redelijk - nuttig, zelfs - maar als dit het doel is, dan is het besluit van de universiteit om samen te werken met een wapenfabrikant niet op te tellen.

En als er dan bewapende technologie wordt geproduceerd, zoals professor Walsh opmerkte The Guardian, "Uiteindelijk zouden ze zeker in Noord-Korea verschijnen - en ze zouden er geen moeite mee hebben om ze tegen het zuiden te gebruiken. '