neizbježna katastrofa /

'Ne smijemo dopustiti da se umjetna inteligencija koristi kao oružje'

"Utrka u naoružanju je loša ideja i treba je spriječiti zabranom napadačkog autonomnog oružja bez ljudske kontrole", upozorio je fizičar tephen Hawking

403 Forbidden

403 Forbidden


nginx
403 Forbidden

403 Forbidden


nginx

Teorijski fizičar Stephen Hawking priključio se u utorak brojnim znanstvenicima koji se protive upotrebi umjetne inteligencije za oružje.

"Ako bilo koja vojna sila krene s razvojem oružja koje koristi umjetnu inteligenciju, globalna utrka u naoružanju je praktički neizbježna i ishod te tehnološke avanture je očit: autonomno oružje postat će Kalašnjikov sutrašnjice", rekao je Hawking u zajedničkom otvorenom pismu.

"Poznati su brojni argumenti za i protiv autonomnog oružja, primjerice da je zamjena ljudi strojevima dobra jer smanjuje ljudske žrtve, a loša jer bi se lakše kretalo u bitke", dodaje se u pismu koje je objavio Institut Future of Life.

"Utrka u naoružanju je loša ideja i treba je spriječiti zabranom napadačkog autonomnog oružja bez ljudske kontrole", ističe Hawking.

Autonomno oružje je ono koje je sposobno samo birati i napadati mete. U njega ne spadaju daljinski upravljane bespilotne letjelice.

403 Forbidden

403 Forbidden


nginx
Pročitaj i ovo
najčitanije
403 Forbidden

403 Forbidden


nginx
403 Forbidden

403 Forbidden


nginx
403 Forbidden

403 Forbidden


nginx
Regionalni portali
403 Forbidden

403 Forbidden


nginx
Izdvojeno
403 Forbidden

403 Forbidden


nginx