Co zakazane, a co dopuszczalne
– Żeby dobrze zinterpretować, czy mamy do czynienia z praktyką zakazaną, musimy wiedzieć po pierwsze, czy mamy do czynienia z systemem sztucznej inteligencji, a po drugie, czy on wpada w tę kategorię – wyjaśnił. Jak podkreślił, dla biznesu jest to bardzo ważne, ponieważ od 2 sierpnia tego roku będą obowiązywały dotkliwe kary za naruszenie katalogu, które mogą wynieść nawet do 35 milionów euro albo 7 proc. globalnego obrotu firmy.
Aby zaradzić wątpliwościom Komisja Europejska opublikowała na początku lutego wytyczne dotyczące praktyk zakazanych, które liczą 140 stron oraz wyjaśnienia dotyczące definicji systemów sztucznej inteligencji, które liczą kilkanaście stron. Było to konieczne, ponieważ w samym akcie jest wiele pojęć niedookreślonych, niejasnych, które budzą wątpliwości ze strony biznesu oraz prawników.
– Wynika to z faktu, że akt z założenia jest neutralny technologicznie, czyli nie narzuca kwestii technicznych, nie definiuje ich oraz ma być future proof, czyli aktualny nawet jeśli technologie w przyszłości znacznie się zmienią – wskazał ekspert. – Oczywiście nie sposób nie zauważyć też, że w niektórych miejscach akt nie był też po prostu do końca przemyślany, co spowodowało, że dzisiaj przed biznesem stoi prawdziwe wyzwanie – dodał.
Zasada autonomiczności i zdolności do samotrenowania
Zdaniem dr. Nowakowskiego dokumenty Komisji Europejskiej zasiewają jednak jeszcze więcej wątpliwości niż sam akt. Według rozporządzenia, aby uznać dane rozwiązanie za system AI, musi być spełnione 7 przesłanek, m.in. autonomiczności, czyli pewnego stopnia niezależności od człowieka, a także adaptacyjności, która została wyjaśniona w akcie jako zdolność do samotrenowania – wyjaśnił. – Nie było jednak jasne, czy przesłanka ta jest obligatoryjna, czy jednak fakultatywna – podkreślił.
Wątpliwości dotyczyły też przesłanki stosowania metod statystycznych, takie jak regresja liniowa lub logistyczna. – W uproszczeniu są to sposoby wyciągania wniosków z danych – wyjaśnił ekspert.
Komisja Europejska zadecydowała, że nawet jeśli w danym rozwiązaniu wykorzystane są autonomiczność lub regresja, rozwiązanie nie musi być uznane za system AI. Jak podkreślił ekspert, decyzja KE ma o tyle znaczenie, że według szacunków, około 80 proc. rozwiązań AI stosuje te metody, ale nie będzie podlegać dodatkowym obostrzeniom wynikającym z aktu.
– Z punktu widzenia biznesu jest to bardzo dobra informacja, przedsiębiorcy się cieszą. Jednak moim zdaniem jeden z celów aktu o sztucznej inteligencji, czyli ochrona obywatela, legł w gruzach, ponieważ wiele rozwiązań, które mają na nas bezpośredni wpływ, będzie pozostawała poza aktem, np. systemy do oceny zdolności kredytowej – ocenił ekspert.
Nie wolno sugerować niekorzystnych decyzji
Zgodnie z aktem o sztucznej inteligencji zakazane są m.in. systemy AI wykorzystywane do tego, żeby zmanipulować kogoś do podjęcia niekorzystnej dla niego decyzji. – W tym przypadku pojawiło się wiele uzasadnionych wątpliwości, np. czy systemy rekomendujące określone produkty na platformach e-commerce podlegają zakazowi – wskazał dr Nowakowski. Dodał, że teoretycznie mogłoby by tak być: część z nich wykorzystuje nasze słabości i manipuluje nami tak, żebyśmy np. kupili dany produkt, mimo że jest nam niepotrzebny; jeśli weźmiemy na niego kredyt, który później będziemy mieli problem spłacić, może to być działanie na naszą szkodę.
Według dr Nowakowskiego wyjaśnienia Komisji Europejskiej nie rozwiały tych wątpliwości. – Dużo w takich przypadkach zależy od prawnika, który będzie interpretował przepisy oraz od organów, takich jak polska Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, które będą odpowiedzialne za egzekwowanie regulacji. Diabeł tkwi w szczegółach i po spełnieniu pewnych warunków systemy rekomendacyjne mogą zostać uznane za zakazane, np. jeśli manipulacja była celowa, a zniekształcenie poznawcze i szkoda istotne – określił Nowakowski.
Techniki podprogowe – nie, przyjemne zapachy – tak
AI Act zakazuje też wykorzystywania w centrach handlowych systemów AI, które subtelnie wpływają na decyzje zakupowe klientów przez techniki podprogowe, np. dźwięki i obrazy w reklamach – wskazał. Jak dodał, jeśli takie zabiegi będą stosowane bez użycia systemu AI, np. w postaci ładnych zapachów czy przyjemnej muzyki, jest to dozwolone.
– Tego typu sprawy będzie trzeba analizować “case by case”, ponieważ nie da się jednoznacznie stwierdzić, że wszystkie praktyki manipulacyjne są zakazane, bądź, że nie są – z punktu widzenia AI Actu – podkreślił.
Wśród systemów zakazanych AI, znalazły się też te, które wykorzystują określone słabości, np. wiek, niepełnosprawność, czego efektem jest podjęcie niekorzystnej decyzji; a także systemy wykorzystywane do rozpoznawania emocji w miejscu pracy i w placówkach edukacyjnych – wskazał ekspert.
– Takie systemy są stosowane np. w chińskich salach wykładowych, gdzie służą do weryfikacji emocji studentów, żeby sprawdzić, czy ktoś ściągał, ale i w Europie w niektórych miejscach pracy – podkreślił Nowakowski.
Wyjaśnił, że zakazane są również systemy, które np. weryfikują konsultantów pod kątem ich emocji, tego czy w odpowiedni sposób się zachowują; zakazane są też systemy służące do tak zwanej zdalnej identyfikacji biometrycznej w przestrzeni publicznej, czyli kamery, które rozpoznają konkretne osoby – wskazał ekspert.
– Są wyjątki od tej zasady, np. niektóre kategorie przestępstw, czy poszukiwanie zaginionych dzieci; żeby użyć takich systemów, trzeba jednak spełnić dodatkowe przesłanki, obowiązuje też kontrola sądowo-administracyjna. Muszą być również spełnione obowiązki w zakresie tak zwanej przejrzystości, czyli informowania o nagrywaniu, co wynika z RODO – wyjaśnił prawnik.
Liczą się konteksty
Wskazał, że scoring społeczny, czyli dokonywanie oceny i profilowania człowieka pod kątem jego zachowań społecznych, “jako taki” nie będzie zakazany, ale z pewnymi wyjątkami. “Jeżeli prywatna firma lub państwo zbierze informacje o zachowaniach ludzi uczestniczących w protestach i ma w tym prawnie uzasadniony interes, np. w kontekście bezpieczeństwa i wykorzysta je w tym konkretnym celu – będzie to legalne. Natomiast jeśli podmiot na tej podstawie stworzy profile tych osób i zastosuje wobec nich ocenę punktową, której konsekwencją będzie przydzielanie lub odbieranie czegoś w zupełnie innych kontekstach, np. benefitów społecznych – takie działania będą zakazane.
Jak zauważył dr Nowakowski, zakazaną praktyką jest też wyciągnie wniosków z danych biometrycznych, np. na temat seksualności, poglądów politycznych czy religijnych, choć znowu – tutaj trzeba dokładnie przeanalizować każdy przypadek.
Podkreślił, że z AI Actu wyłączone są wojskowe zastosowania systemów sztucznej inteligencji oraz – z pewnymi zastrzeżeniami – z zakresu badań i rozwoju.
– Akt jest bardzo ograniczony w swoim zasięgu w kontekście praktyk zakazanych, więc nie będzie istotnie wpływał na przedsiębiorców; nie jest kagańcem na biznes – ocenił.
Dodał, że jeśli firma korzystająca z AI ma wątpliwości, czy wszystko jest zgodnie z prawem, powinna dokonać weryfikacji, czy ma do czynienia z systemem sztucznej inteligencji oraz z praktyką zakazaną. Z kolei tam, gdzie ryzyko jest nieakceptowalne, powinno dojść do interwencj, np. organu nadzoru w formie kar.
Komentarze (0)