Zamiast zasady "Najpierw strzelaj, potem pytaj" autonomiczne systemy będą kierowały się mniej agresywną strategią zgodnie z zasadą "Nie czyń niepotrzebnie krzywdy". Staną się etyczne, gdy zostaną wyposażone w oprogramowanie zmuszające je do przestrzegania praw wojny - o przewadze robotów nad ludźmi opowiada prof. Ronald Arkin

Jarosław Marczuk: Nie ma pan wrażenia, że wojsko niewłaściwie używa robotów, gdy słyszy pan o kolejnej przypadkowej ofierze bombardowania dokonanego przez drona w Afganistanie czy Pakistanie?

Prof. Ronald Arkin: W świetle koncepcji wojny sprawiedliwej i konwencji genewskiej zabicie cywilów nie stanowi zbrodni wojennej ze względu na zasadę podwójnego skutku, znaną jeszcze z czasów średniowiecza. Usprawiedliwia ona zabijanie niewalczących, pod warunkiem że jest to działanie niezamierzone, choć możliwe do przewidzenia jako skutek uprawnionych moralnie działań wojskowych.

icon/Bell Czytaj ten tekst i setki innych dzięki prenumeracie
Wybierz prenumeratę, by czytać to, co Cię ciekawi
Wyborcza.pl to zawsze sprawdzone informacje, szczere wywiady, zaskakujące reportaże i porady ekspertów w sprawach, którymi żyjemy na co dzień. Do tego magazyny o książkach, historii i teksty z mediów europejskich. 
 
Monika Tutak-Goll poleca
Podobne artykuły
Więcej
    Komentarze
    SkyNET
    @lukaszx owszem, to się tak skończy
    już oceniałe(a)ś
    0
    0
    Panu Profesorowi polecam do poczytania "Pokój na ziemi" Lema :)
    już oceniałe(a)ś
    2
    0
    Profesor Arkin zapomniał wspomnieć, że jego kodeks moralny dla maszyn, jeśli zostanie stworzony wcale nie musi zostać wdrożony. To, by obowiązywał to jest tylko jego życzenie. Dodam, mało realne życzenie. Wojsku będzie zależeć na skuteczności, nie na humanitaryźmie. Jeśli pojawią się systemy autonomiczne to będą one raczej przychylały się by interpretować człowieka na polu walki jako wroga a nie cywila i do jego eliminacji. Taki robot to kosztowna rzecz, a jego utrata to również utrata możliwości bojowej. Wybór zabić być może cywila albo stracić maszynę. Tu stawiam na zaporogramowanie: wybór zabić.
    już oceniałe(a)ś
    3
    1
    Bardzo starannie ominięto problem zabijania ludzi przy pomocy dronów przez urzędników administracji USA, bez wyroku sądu.
    @jacek_dp Nie... Wątek ten jest pominięty w tekście, gdyż jest bez znaczenia w sensie meritum tego roztrząsu. Rozmawiamy o przewadze technologii nad człowiekiem. I o niczym więcej. Czymże bowiem różni się zabijanie ludzi przez urzędników USA z użyciem drona od zabicia ludzi z użyciem snajpera, rakiety ziemia-ziemia? Proces decyzyjny zawsze jest ten sam. Spójrzmy na przypadek Ben Ladena. Przecież poradzono sobie bez użycia robotów, choć i taka opcja była możliwa. Ale świadomie z niej zrezygnowano i wjechali gościowi na chatę na terenie obcego kraju nie pytając nikogo o zgodę. Przetrzepali dom, zabili parę osób i pojechali. Czy było to zgodne z konwencjami? Umowami międzynarodowymi? Czy było to moralne? Zabić kogoś bez wyroku sądu? Czy użycie lub nieużycie drona cokolwiek zmienia? Dron jest tylko współczesnym ostrzem dzidy. Niczym więcej. Problem zabijania ludzi według widzimisię urzędników to temat na zupełnie inną dyskusję.
    już oceniałe(a)ś
    4
    0
    @lobo13 Pozwolę sobie nie zgodzić się z Tobą. Jest różnica. Drona może użyć byle urzędnik, nie mający za sobą przeszkolenia wojskowego. Nie mający świadomości że morduje żywego człowieka. Dla niego to coś w rodzaju gry video. Ben Ladena zabili żołnierze. I żeby nie było niedomówień uważam że Amerykanie zabijając go złamali zasady państwa prawa. Konsekwencją takiego postępowania USA będą kolejne ataki terrorystyczne. Szkoda że państwo to przez swoje postępowanie prowokuje zdesperowanych ludzi do działań godzących w bezpieczeństwo nas wszystkich.
    już oceniałe(a)ś
    0
    4
    dziennikarz zadaje pytania jak kretyn... wielce zdziwiony że istnieje coś takiego jak wojna
    już oceniałe(a)ś
    0
    0