Skip to main content
European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Article Category

Zawartość zarchiwizowana w dniu 2023-04-03

Article available in the following languages:

Wyznaczanie trendów w nauce: Eksperci ds. technologii wzywają do wprowadzenia całkowitego zakazu autonomicznych śmiercionośnych systemów uzbrojenia

Liderzy technologii napisali list otwarty do ONZ wzywając do zakazu autonomicznych systemów uzbrojenia, które ich zdaniem mogą umożliwić prowadzenie konfliktu zbrojnego na niespotykaną dotąd skalę i w szybszym tempie niż człowiek jest w stanie to pojąć.

Elon Musk z firmy Tesla i Mustafa Suleyman z firmy Google znaleźli się pośród 116 czołowych pionierów w dziedzinie robotyki i sztucznej inteligencji na świecie, którzy podpisali się pod otwartym listem wzywającym ONZ do wprowadzenia zakazu budowania i stosowania autonomicznych systemów uzbrojenia. W grudniu 2016 r. ONZ zagłosowało za podjęciem formalnych rozmów na temat przyszłości tego rodzaju uzbrojenia, między innymi czołgów, dronów i automatycznych karabinów maszynowych. Do tej pory 19 państw członkowskich wezwało do wprowadzenia całkowitego zakazu tego typu uzbrojenia. Toby Walsh, profesor specjalizujący się w sztucznej inteligencji na Uniwersytecie Nowej Południowej Walii, Australia, jest jednym z inicjatorów listu. Cytowany w brytyjskim czasopiśmie Independent, prof. Walsh wyjaśnia: „Niemal każdą technologię można wykorzystać do dobrych bądź złych celów i nie inaczej jest w przypadku sztucznej inteligencji. Może pomóc w uporaniu się z wieloma naglącymi problemami, z którymi mierzy się dzisiaj ludzkość: nierówność i ubóstwo, wyzwania związane ze zmianą klimatu oraz trwający globalny kryzys finansowy. „Jednak tej samej technologii można użyć w autonomicznych systemach uzbrojenia, aby zindustrializować wojnę. Musimy podjąć decyzję dzisiaj, jakiej chcemy przyszłości”. W liście opublikowanym przez Future Life Institute czytamy: „Istnieje zagrożenie, że autonomiczne śmiercionośne systemy uzbrojenia staną się trzecią rewolucją w działaniach wojennych. Jeżeli zostaną zbudowane, umożliwią prowadzenie konfliktów zbrojnych na niespotykaną dotąd skalę i w szybszym tempie niż człowiek jest to w stanie pojąć. „Mogą stać się narzędziami terroru; bronią, którą despoci i terroryści wykorzystają przeciwko niewinnej ludności; bronią zhakowaną, aby zachowywać się niepożądany sposób. Nie mamy zbyt wiele czasu na podjęcie działań. Raz otwartą puszkę Pandory trudno będzie zamknąć. Z tego właśnie względu wzywamy Wysokie Umawiające się Strony do znalezienia sposobu chronienia nas przed tymi zagrożeniami”. List został odczytany w Melbourne, Australia, na Międzynarodowej Wspólnej Konferencji nt. Sztucznej Inteligencji (IJCAI), która gromadzi wielu światowego formatu naukowców specjalizujących się w sztucznej inteligencji. W 2015 r., w czasie ostatniej IJCAI, Walsh opublikował inny list otwarty wzywający kraje do powstrzymania się od udziału w wyścigu zbrojeń w dziedzinie sztucznej inteligencji. Do tej pory wcześniejszy list, którego konsygnatariuszem jest fizyk Stephen Hawking, podpisało ponad 20 000 osób, między innymi ponad 3100 naukowców pracujących nad sztuczną inteligencją/robotyką. Uczestnicy Konferencji Przeglądowej ONZ Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych postanowili jednogłośnie o rozpoczęciu formalnych dyskusji nad zakazem autonomicznych systemów uzbrojenia. Spotkanie grupy miało odbyć się 21 sierpnia, ale zgodnie z doniesieniami magazynu online Fortune wygląda na to, że zostało przełożone na listopad.

Kraje

Austria, Belgia, Bułgaria, Cypr, Czechy, Niemcy, Dania, Estonia, Grecja, Hiszpania, Finlandia, Francja, Chorwacja, Węgry, Irlandia, Włochy, Litwa, Luksemburg, Łotwa, Malta, Niderlandy, Polska, Portugalia, Rumunia, Szwecja, Słowenia, Słowacja, Zjednoczone Królestwo

Powiązane artykuły