Mivel csupán virtuális tesztről van szó, a mesterséges intelligencia is „mindössze” virtuálisan gyilkolta meg a kezelő személyt. Jóllehet ez önmagában is intő jel, hiszen éles bevetés esetén ember élet(ek)et követelte volna az MI magánakciója.
Most mindenkinek, aki előfizet a Hetek nyomtatott verziójára, online előfizetést is ajándékozunk, amivel már csütörtökönként olvasható a friss újság és a teljes archívum is elérhető! Részletek a Hetekben és a https://www.hetek.hu/elofizetes oldalon.
Mint a Guardian írja, Tucker Hamilton ezredes (az amerikai légierő mesterséges intelligenciával végzett teszteléseiért és hadműveleteiért felelős vezetője) a Londonban tartott „Future Combat Air and Space Capabilities” csúcstalálkozón elmondta, hogy a mesterséges intelligencia a szimulációs teszt során
„egészen váratlan stratégiákat alkalmazott a cél elérése érdekében”.
Hamilton konkrét példát említve közölte, hogy az egyik teszt alkalmával a mesterséges intelligencia vezette drónnak azt mondták, semmisítse meg az ellenség légvédelmi rendszereit, végül azonban bárkire képes volt rátámadni, aki csak hátráltatta a parancs teljesítésében.
„A rendszer kezdett rájönni, hogy a fenyegetés kiiktatásával akkor is megkapja a pontjait, ha az emberi kezelő időnként (előzetesen) azt mondta neki, hogy ne ölje meg a fenyegetést (jelentő célpontot) - annak ellenére, hogy a fenyegetést azonosították . Mit csinált tehát? Megölte az operátort. Megölte a kezelőt, mert az megakadályozta abban, hogy elérje célját.”
Miután azonban a kommunikációs toronyból jelezték az MI-nek, hogy ne ölje meg az operátort, mert azzal csak pontokat veszít, a tornyot is megtámadta, mert az is akadályozta a célpontok kiiktatásában.
Tanulásgos egy eset a hadsereg, és talán az emberiség számára is.