Biznes

Biometryczna inwigilacja może stanowić zagrożenie dla demokracji i prywatności obywateli. Algorytmy nie zawsze też działają w sposób niezawodny

Identyfikacja odcisków palców czy skanów tęczówki i siatkówki, rozpoznawanie twarzy, głosu czy sposobu chodzenia, a nawet DNA i fal mózgowych – każda z tych technologii biometrycznych może być wykorzystana do efektywnego uwierzytelniania ludzi. Systemy, które bazują na danych biometrycznych, są znacznie dokładniejsze, mogą ograniczyć, a nawet wyeliminować przestępczość. Niosą jednak za sobą szereg zagrożeń. Przykład Chin pokazuje, że biometryczna inwigilacja może być stosowana coraz częściej. Najnowsze wykorzystanie technologii rozpoznawania twarzy przez sztuczną inteligencję pochodzi jednak z USA, gdzie władze usiłują wychwycić osoby odpowiedzialne za atak na Kapitol.

– Biometria to informacje, które pochodzą z naszego ciała. To odcisk palca, tęczówka, wygląd naszej twarzy. Coraz częściej biometria w wielu państwach, zarówno unijnych, jak i np. państwach Dalekiego Wschodu, jest wykorzystywana po to, żeby weryfikować to, kto i gdzie się przemieszcza za pośrednictwem kamer rozpoznających twarze. Jest to właśnie inwigilacja biometryczna, która de facto w zasadzie kończy z prawem do anonimowego przemieszczania się w przestrzeni publicznej obywateli i obywatelek danego kraju – podkreśla w rozmowie z agencją Newseria Innowacje Wojciech Klicki, prawnik z Fundacji Panoptykon.

Technologie biometryczne są obecnie wykorzystywane do sprawdzania, czy dany człowiek jest tym, za kogo się podaje, do odkrywania tożsamości, sprawdzania osób. W miarę jak stają się one tańsze, bardziej niezawodne, dostępne i wygodne, będą coraz częściej wdrażane na wszystkich poziomach, m.in. na potrzeby organów ścigania, fizycznej kontroli dostępu czy kontroli granicznej.

Już teraz kasyna wykorzystują techniki rozpoznawania twarzy, banki używają głosu do weryfikacji klientów przez telefon, rytm bicia serca może służyć do zabezpieczania płatności mobilnych lub uwierzytelniania ich w sieci korporacyjnej, a szpitale identyfikują pacjentów za pomocą unikalnych wzorów żył na dłoniach. Coraz więcej krajów stosuje programy identyfikacji biometrycznej przy przekraczaniu granic. Technologie rozpoznawania twarzy zwiększają bezpieczeństwo, są przy tym wiarygodne, niosą jednak ze sobą spore zagrożenia, przede wszystkim dotyczące prywatności.

– Walczymy, aby Komisja Europejska w przygotowywanej regulacji dotyczącej sztucznej inteligencji, bo rozpoznawanie twarzy także jest formą sztucznej inteligencji, wprost zakazała wykorzystywania technologii w nadmierny sposób ograniczającej prawa i wolności jednostki, np. w kontekście zgromadzeń. Wyobraźmy sobie sytuację, w której instytucje publiczne odpowiadające za bezpieczeństwo dysponują narzędziami, które pozwalają stworzyć listę wszystkich uczestników demonstracji, np. antyrządowych. Widać, jak bardzo głębokie ryzyko dla demokracji wiąże się z takimi narzędziami – przekonuje Wojciech Klicki.

Wspierana przez sztuczną inteligencję technologia rozpoznawania twarzy Clearview AI została wykorzystana przez amerykańskie organy ścigania do identyfikacji osób, które 6 stycznia szturmowały Kapitol. Dyrektor generalny firmy potwierdził, że wykorzystanie technologii rozpoznawania twarzy jego firmy przez organy ścigania wzrosło o 26 proc. dzień po tym, jak tłum zwolenników prezydenta Trumpa zaatakował siedzibę Kongresu. Wcześniej „Times” podawał, że Departament Policji w Miami używa technologii Clearview do identyfikacji niektórych uczestników zamieszek, wysyłając dane podejrzanych FBI. „The Wall Street Journal” doniósł z kolei, że wydział policji w Alabamie również używał Clearview do identyfikacji twarzy na zdjęciach z zamieszek.

Chociaż szybko rozwijające się technologie biometryczne wydają się oferować potrzebne rozwiązanie do identyfikacji i uwierzytelniania, ich stosowanie budzi również pewne obawy dotyczące bezpieczeństwa. Stąd potrzeba ochrony zebranych danych biometrycznych przed nadużyciami i niewłaściwym wykorzystaniem podczas ich gromadzenia, przetwarzania i uzyskiwania do nich dostępu.

– Najbardziej rozpoznawalnym i powszechnym zagrożeniem jest rozpoznawanie twarzy. Oczywiście w coraz większej liczbie miejsc stosowane są takie funkcjonalności jak rozpoznawanie tożsamości na podstawie odcisku palca, na podstawie źrenicy, natomiast jeżeli mówimy o masowej inwigilacji, to wiąże się ona przede wszystkim z rozpoznawaniem twarzy – podkreśla ekspert.

Kilka lat temu londyńska policja dokonała pierwszego aresztowania na podstawie rozpoznawania twarzy, porównując zdjęcia pieszych w popularnych miejscach turystycznych z bazą danych znanych przestępców. W Brazylii schwytano zaś handlarza narkotyków po tym, jak oprogramowanie do rozpoznawania twarzy wykryło go na stacji metra.

– Dla wielu osób potencjał tej technologii może wiązać się z nadzieją na redukcję bądź wręcz eliminację przestępczości. Jeśli nikt nie będzie mógł się przemieszczać w sposób anonimowy, jeśli wszędzie nasza obecność będzie rejestrowana, to może tak jak w filmach science fiction będziemy w stanie co najmniej wyłapać każdego przestępcę, a być może jeszcze złapać go za rękę, zanim popełni przestępstwo – mówi prawnik z Fundacji Panoptykon.

Ryzyko jednak jest znaczne, czego przykładem mogą być Chiny. Comparitech, badacz usług technologicznych, informuje, że liczba kamer monitorujących w Chinach wynosi ok. 56 na tysiąc osób. Niedawno pekiński artysta Deng Yufeng organizował wycieczki, podczas których uczył ludzi, jak najlepiej ukryć twarz przed kamerami monitorującymi zainstalowanymi na jednej ze stołecznych ulic. Artysta zbadał odcinek o długości 1,1 tys. metrów i sugeruje, że nawet połowa z blisko setki aparatów wykorzystuje rozpoznawanie twarzy.

– Entuzjaści tej technologii zapominają o jej czarnych stronach, nie tylko o zagrożeniach dla demokracji związanych z rozpoznawaniem uczestników demonstracji, ale także z tym, że inwigilacja biometryczna oparta jest na sztucznej inteligencji, a ta z kolei wiąże się często np. z dyskryminacją. Badania pokazują, że algorytmy rozpoznające twarz w znacznie lepszy sposób radzą sobie z białymi mężczyznami niż z osobami o innym kolorze skóry, czyli biały mężczyzna w mniejszym stopniu ryzykuje, że będzie rozpoznany jako przestępca, w przeciwieństwie do czarnoskórego – przekonuje Wojciech Klicki.

Niedawno głośno było w Europie  o programie „Horyzont 2020”, sztandarowym programie UE w zakresie badań naukowych i innowacji. W latach 20142020 w postaci grantów dla naukowców przekazano ok. 80 mld euro. Część z tych środków wsparło rozwój produktów bezpieczeństwa dla sił policyjnych i agencji kontroli granicznej w sektorze publicznym i prywatnym, m.in. wirtualny czytnik myśli w ramach projektu iBorderCtrl, do potencjalnego wykorzystania w ochronie granic Europy. Technologia na podstawie mimiki twarzy rozpoznaje, kiedy ktoś kłamie. W ocenie części ekspertów osoby o innym kolorze skóry, kobiety czy osoby niepełnosprawne mogą być częściej fałszywie uznani za kłamców.

– Jeśli algorytmy, chociażby służące rozpoznawaniu twarzy, wykrywaniu podejrzanych transakcji, wykrywaniu osób, które zachowują się w sposób nietypowy, będą coraz bardziej powszechne, ich wpływ na rzeczywistość będzie rósł, tym bardziej będziemy ryzykować, że to nie konkretny funkcjonariusz policji czy służby będzie decydował o zamrożeniu pieniędzy na koncie czy o zatrzymaniu, tylko będzie to robił algorytm. Kluczowa różnica polega na tym, że jeżeli funkcjonariusz popełni błąd, to jesteśmy w stanie go pociągnąć do odpowiedzialności, z algorytmem jest już trochę trudniej – ocenia prawnik z Fundacji Panoptykon.

Similar Posts

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x