Ostrożne wdrażanie technologii sztucznej inteligencji (SI) w celu kontroli granic UE może przynieść korzyści. Należy jednak zrównoważyć je ze znacznym zagrożeniem, jakie owe technologie stwarzają dla praw podstawowych - wskazano w raporcie Biura Analiz Parlamentu Europejskiego (EPRS).
Biuro Analiz Parlamentu Europejskiego (EPRS) opublikowało na swojej stronie internetowej raport dotyczący opracowywania i wdrażania technologii sztucznej inteligencji w celu poprawy bezpieczeństwa granic. W dokumencie zwrócono uwagę, że Unia Europejska i państwa członkowskie, podejmując wysiłki na rzecz wzmocnienia kontroli granicznej i zmniejszenia zagrożenia terroryzmem oraz przestępczością, coraz częściej sięgają po technologie sztucznej inteligencji. "Jest to jeden z ostatnich przejawów szerszego trendu podążania w kierunku +inteligentnych+ granic UE. Trendu, który obejmuje również rozwój i łączenie scentralizowanych na dużą skalę systemów informacyjnych, a także wdrożenie zdecentralizowanego mechanizmu wymiany informacji dotyczących granic i bezpieczeństwa" – wyjaśniono.
Autorzy analizy poinformowali, że w scentralizowanych systemach informacyjnych UE dotyczących bezpieczeństwa granic coraz częściej "uwzględnia się wykorzystywanie technologii biometrycznych w celu identyfikacji lub weryfikacji tożsamości". "Zautomatyzowana technologia identyfikacji odcisków palców jest obecnie wykorzystywana w trzech systemach informacyjnych - Systemie Informacyjnym Schengen, Europejskim Zautomatyzowanym Systemie Rozpoznawania Odcisków Palców (Eurodac) i w Wizowym Systemie Informacyjnym. Będzie wykorzystywana również w systemie wjazdu/wyjazdu oraz w Europejskim systemie przekazywania informacji z rejestrów karnych dotyczących obywateli państw trzecich. Zautomatyzowana technologia rozpoznawania twarzy nie jest jeszcze używana w żadnym systemie informacyjnym UE, ale we wszystkich systemach - z wyjątkiem Europejskiego Systemu Informacji o Podróży oraz Zezwoleń na Podróż - ma przetwarzać obrazy twarzy w celu weryfikacji lub identyfikacji w najbliższej przyszłości" – napisali.
W opinii ekspertów technologie wykrywania emocji stanowią jedno z najbardziej kontrowersyjnych zastosowań sztucznej inteligencji na granicach. Podczas gdy obecnie systemy wykrywania emocji nie są wdrożone na granicach UE – czytamy - w ramach wielu projektów i inicjatyw finansowych badano i pilotowano takie technologie mające służyć wzmocnieniu kontroli granic. "Oprócz weryfikacji i identyfikacji znanych osób, algorytmy AI służą również do identyfikacji nieznanych osób będących przedmiotem zainteresowania na podstawie określonych profili ryzyka. Profilowanie algorytmiczne w celu oceny indywidualnych zagrożeń dla bezpieczeństwa oraz ryzyka nielegalnej migracji jest obecnie opracowywane w kontekście Wizowego Systemu Informacyjnego, a także Systemu Informacji o Podróży oraz Zezwoleń na Podróż" – podali.
Jak podkreślono w raporcie, ostrożne wdrażanie technologii sztucznej inteligencji w celu kontroli granic może przynieść wyraźne korzyści, m.in. zwiększoną zdolność wykrywania oszustw i nadużyć, lepszy, terminowy dostęp do informacji istotnych w procesie podejmowania decyzji, a także wzmocnioną ochronę osób szczególnie narażonych. "Korzyści te należy jednak zrównoważyć ze znacznym zagrożeniem, jakie stwarzają omawiane technologie dla praw podstawowych" – dodano.
EPRS zwróciło uwagę, że "mimo postępu w zakresie technologii identyfikacji biometrycznej, dokładność rezultatów nadal różni się w zależności od wykorzystanej technologii i czynników kontekstowych". "Nawet powszechnie uznane aplikacje do identyfikacji odcisków palców muszą mierzyć się z wyzwaniami, w szczególności na etapie pobierania danych biometrycznych (co jest związane np. z wiekiem badanych i warunkami środowiskowymi). Niezawodność technologii rozpoznawania twarzy w warunkach +rzeczywistego świata+ w dużym stopniu zależy od obrazów i jakości algorytmów stosowanych do porównywania danych biometrycznych. Jakość algorytmów zależy z kolei od jakości szkoleniowych zbiorów danych oraz różnych technik optymalizacji. Istnieją poważne wątpliwości co do podstaw naukowych i wiarygodności algorytmów wykrywania emocji" – zaznaczyło.
Autorzy analizy wskazali, że "nawet dokładne i bezstronne systemy sztucznej inteligencji mogą stwarzać inne znaczące zagrożenia, w tym dotyczące ochrony danych i prywatności". "Zwiększone wykorzystanie danych biometrycznych w systemach informacyjnych UE nasila ryzyko niezgodnego z prawem profilowania (np. wizerunki twarzy mogą ujawnić pochodzenie etniczne). W przypadku finansowanego przez UE projektu badawczego, skoncentrowanego na rozwoju technologii wykrywania emocji, istnieje potrzeba wzmocnienia przejrzystości i nadzoru nad finansowaniem przez UE badań nad sztuczną inteligencją, w szczególności w obszarach wiążących się z poważnymi konsekwencjami, takimi jak granice i bezpieczeństwo" – stwierdzili.
Ich zdaniem w procesie rozwoju technologii sztucznej inteligencji niezbędne jest pełne zrozumienie i refleksja nad szerszymi aspektami historycznymi, korzeniami tych technologii, a także nad dominującymi poglądami, oczekiwaniami społecznymi i politycznymi. "Adaptacja technologii bez konfrontacji z pułapkami - takimi jak determinizm technologiczny czy mit neutralności technologicznej – jeszcze bardziej osłabiłaby prawa podstawowe, przejrzystość i odpowiedzialność” – podsumowali. (PAP)
dap/
Materiał powstał w ramach projektu EuroPAP News, realizowanego przez Polską Agencję Prasową przy wsparciu finansowym Unii Europejskiej za pośrednictwem dotacji Parlamentu Europejskiego.