Wyznaczanie trendów w nauce: Sztuczna inteligencja – przekleństwo czy błogosławieństwo? Eksperci wzywają do działania, aby stawić czoła zagrożeniom dla bezpieczeństwa

Jak ostrzegają eksperci, jeżeli ludzkość nie będzie lepiej przygotowana do obrony przed potencjalnym nielegalnym wykorzystaniem sztucznej inteligencji (AI), technologia ta może stać się niebezpiecznym narzędziem w rękach terrorystów, przestępców oraz krajów łamiących przepisy prawa międzynarodowego.

Obawy związane z inteligencją maszyn od dziesięcioleci są tematem książek i filmów z gatunku science fiction, które bardzo często przedstawiają autodestrukcyjną siłę ludzkości. Pojawienie się sztucznej inteligencji doprowadziło do powstania przeciwstawnych narracji w domenie publicznej: koncentrujących się na możliwościach lub zagrożeniach, w zależności od punktu widzenia.

Chociaż koncepcja sztucznej inteligencji istnieje od lat 50. ubiegłego wieku, badania nad AI oraz technologiami uczenia maszyn dopiero niedawno nabrały rozpędu. Dzięki ich szybkiemu rozwojowi rozwiązania te są obecnie wykorzystywane do różnych zastosowań, w tym w systemach do automatycznego rozpoznawania mowy i tłumaczenia maszynowego, w wyszukiwarkach, asystentach cyfrowych, dronach i pojazdach bezzałogowych.

Systemy te mają potencjał, aby całkowicie zrewolucjonizować dziedziny, takie jak opieka zdrowotna, rolnictwo, edukacja i transport, a ich stosowanie jest postrzegane jako korzystne, aktywnie poprawiające życie ludzi i pozytywnie wpływające na świat. Przykładowo sztuczna inteligencja odgrywa już ważną rolę w codziennej praktyce pozyskiwania, przetwarzania i interpretacji obrazów medycznych. Jednak rosnąca grupa ekspertów, do której zaliczają się fizyk Stephen Hawking oraz przedsiębiorca Elon Musk, nadal podkreśla potrzebę odpowiedniego przygotowania się w celu uniknięcia potencjalnych zagrożeń stwarzanych przez sztuczną inteligencję.

W nowym sprawozdaniu „Nielegalne wykorzystanie sztucznej inteligencji: przewidywanie, zapobieganie i łagodzenie skutków” zespół badaczy z różnych uniwersytetów, ośrodków analitycznych i organizacji non-profit przedstawił podobne obawy. Sprawozdanie wskazuje potencjalne zagrożenia dla bezpieczeństwa, jakie może stwarzać sztuczna inteligencja, jeśli trafi w niewłaściwe ręce. Zagrożenia te występują w trzech wymiarach: cyfrowym, fizycznym i politycznym. Sprawozdanie sugeruje, że sztuczna inteligencja może umożliwić przestępcom precyzyjne i bardzo sprawne przeprowadzanie ataków na dużą skalę.

Shahar Avin z Centrum Badań nad Zagrożeniem dla Ludzkości Uniwersytetu Cambridge (CSER) powiedział w wywiadzie dla BBC, że sprawozdanie koncentruje się na rozwiązaniach z dziedziny sztucznej inteligencji, które są dostępne teraz lub prawdopodobnie staną się dostępne w ciągu najbliższych 5 lat.

W sprawozdaniu, określającym sztuczną inteligencję jako technologię „podwójnego zastosowania”, która może być wykorzystywana przez organy wojskowe i cywilne „zarówno w celach pożytecznych, jak i szkodliwych”, stwierdzono: „Ponieważ możliwości sztucznej inteligencji stają się coraz potężniejsze i coraz powszechniejsze, oczekujemy, że częstsze wykorzystanie takich systemów doprowadzi do ...rozszerzenia istniejących zagrożeń ...wprowadzenia nowych zagrożeń ...[oraz] zmiany charakteru typowych zagrożeń”.

W pisemnym oświadczeniu dr Seán Ó hÉigeartaigh, dyrektor wykonawczy CSER i jeden ze współautorów sprawozdania, powiedział:

„Żyjemy w świecie, który może być nękany codziennymi zagrożeniami wynikającymi z niewłaściwego wykorzystywania sztucznej inteligencji i musimy wziąć na siebie odpowiedzialność za te problemy – ponieważ ryzyko jest realne. Musimy teraz dokonać różnych wyborów, a nasze sprawozdanie jest wezwaniem do działania dla rządów, instytucji i obywateli na całym świecie”.

Autorzy spodziewają się, że będzie dochodzić do nowych rodzajów cyberataków, takich jak zautomatyzowane hakowanie, synteza mowy w celu podszywania się pod inne osoby, precyzyjnie ukierunkowane wiadomości spamowe wykorzystujące informacje pobrane z mediów społecznościowych lub wykorzystanie luk w systemach AI, np. poprzez przykłady kontradyktoryjne i zatruwanie danych. Sprawozdanie wskazywało również na możliwość wykorzystania dronów i systemów cyber-fizycznych do wrogich działań, takich jak rozbijanie flot pojazdów autonomicznych lub uzbrajanie „rojów dronów” w celu zabicia określonych osób w tłumie przy wykorzystaniu technologii rozpoznawania twarzy. Fałszywe filmy wideo manipulujące opinią publiczną lub wykorzystanie zautomatyzowanych platform nadzorczych do tłumienia protestów społecznych w autorytarnych państwach stanowią przykłady zagrożeń dla bezpieczeństwa politycznego, które również wymieniono w sprawozdaniu.

Chociaż sprawozdanie ostrzega o nadchodzących zagrożeniach ze strony sztucznej inteligencji, nie oferuje konkretnych środków zapobiegawczych przeciwko niewłaściwemu wykorzystaniu takich technologii. W publikacji zwrócono także uwagę na fakt, że nadal występują liczne różnice zdań między samymi współautorami a innymi ekspertami w tej dziedzinie. „Analizujemy, ale nie rozstrzygająco, kwestię równowagi, w perspektywie długoterminowej, pomiędzy agresorami a obrońcami. Skupiamy się na rodzajach ataków, których wkrótce możemy doświadczyć, jeżeli nie opracujemy odpowiednich zabezpieczeń”, podsumowali autorzy.

opublikowano: 2018-03-02
Komentarze


Polityka Prywatności