ENGINEERINGNET.NL - Meer dan honderd oprichters van bedrijven op het gebied van robotica en kunstmatige intelligentie (KI) waarschuwen in een open brief op Futureoflife.org voor de ontwikkeling van 'killer robots'. Als KI-experts beseffen zij als geen ander dat de kennis waar zij aan werken ook ingezet kan worden in oorlogsvoering.
Zo wordt de grens tussen Zuid- en Noord-Korea al bewaakt door volautomatische machinegeweren. Deze machines kunnen zonder menselijke tussenkomst doelwitten uitschakelen.
De verdere ontwikkeling van dit soort systemen is een doos van Pandora die beter gesloten kan blijven. Want wat gebeurt er als terroristen deze kennis in handen krijgen of oorlogsmachines gehackt worden?
Tijdens een eerder gehouden lezing over KI bespraken informaticus prof. dr. John-Jules Meyer (Universiteit Utrecht) en techniekfilosoof dr. Merel Noorman (Universiteit van Maastricht) hoe intelligent slimme bommen en drones nu eigenlijk zijn en hoe problematisch het is om verantwoordelijkheid toe te schrijven aan autonome systemen.
Terwijl verantwoordelijkheid in onze samenleving en in onze rechtsgang juist een cruciale rol speelt. Is de programmeur straks verantwoordelijk of de zelfbeslissende robot? Een ander aspect is de absentie van moreel besef: een robot is moreel, noch immoreel. Robots zijn amoreel.
Ze proberen de doelen te bereiken waar ze voor geprogrammeerd zijn en hebben geen idee van goed of kwaad. Als een immorele handeling nodig is om een doel te bereiken, zal een robot geen ethische overweging maken. Willen we oorlogsvoering zonder ethiek?.