Reklama

ad1a KUBOTA [03.03-02.04.25]

Prawo dotyczące AI korzystne dla biznesu, ale nie dla obywatela

Prawo dotyczące AI korzystne dla biznesu, ale nie dla obywatela
ZM/PAP
10.03.2025, o godz. 8:19
czas czytania: około 6 minut
0

Ochrona obywatela, która jest jednym z celów aktu o AI, legła w gruzach po decyzji Komisji Europejskiej; wiele rozwiązań, które mają na nas bezpośredni wpływ nie będą objęte prawem - ocenił  dr Michał Nowakowski.

Dalsza część tekstu znajduje się pod reklamą

Reklama

ad1B Kubota [04.03-31.03.25]

Od 2 lutego w Unii Europejskiej obowiązują przepisy dotyczące katalogu praktyk zakazanych czyli takich, które generują tak duże ryzyko dla człowieka i dla praw podstawowych, że są w Unii Europejskiej nieakceptowalne – wskazał dr Michał Nowakowski, partner w kancelarii ZP Zackiewicz & Partners.

Co zakazane, a co dopuszczalne

– Żeby dobrze zinterpretować, czy mamy do czynienia z praktyką zakazaną, musimy wiedzieć po pierwsze, czy mamy do czynienia z systemem sztucznej inteligencji, a po drugie, czy on wpada w tę kategorię – wyjaśnił. Jak podkreślił, dla biznesu jest to bardzo ważne, ponieważ od 2 sierpnia tego roku będą obowiązywały dotkliwe kary za naruszenie katalogu, które mogą wynieść nawet do 35 milionów euro albo 7 proc. globalnego obrotu firmy.

Aby zaradzić wątpliwościom Komisja Europejska opublikowała na początku lutego wytyczne dotyczące praktyk zakazanych, które liczą 140 stron oraz wyjaśnienia dotyczące definicji systemów sztucznej inteligencji, które liczą kilkanaście stron. Było to konieczne, ponieważ w samym akcie jest wiele pojęć niedookreślonych, niejasnych, które budzą wątpliwości ze strony biznesu oraz prawników.

– Wynika to z faktu, że akt z założenia jest neutralny technologicznie, czyli nie narzuca kwestii technicznych, nie definiuje ich oraz ma być future proof, czyli aktualny nawet jeśli technologie w przyszłości znacznie się zmienią – wskazał ekspert. – Oczywiście nie sposób nie zauważyć też, że w niektórych miejscach akt nie był też po prostu do końca przemyślany, co spowodowało, że dzisiaj przed biznesem stoi prawdziwe wyzwanie – dodał.

Zasada autonomiczności i zdolności do samotrenowania

Zdaniem dr. Nowakowskiego dokumenty Komisji Europejskiej zasiewają jednak jeszcze więcej wątpliwości niż sam akt. Według rozporządzenia, aby uznać dane rozwiązanie za system AI, musi być spełnione 7 przesłanek, m.in. autonomiczności, czyli pewnego stopnia niezależności od człowieka, a także adaptacyjności, która została wyjaśniona w akcie jako zdolność do samotrenowania – wyjaśnił. – Nie było jednak jasne, czy przesłanka ta jest obligatoryjna, czy jednak fakultatywna – podkreślił.

Wątpliwości dotyczyły też przesłanki stosowania metod statystycznych, takie jak regresja liniowa lub logistyczna. – W uproszczeniu są to sposoby wyciągania wniosków z danych – wyjaśnił ekspert.

Komisja Europejska zadecydowała, że nawet jeśli w danym rozwiązaniu wykorzystane są autonomiczność lub regresja, rozwiązanie nie musi być uznane za system AI. Jak podkreślił ekspert, decyzja KE ma o tyle znaczenie, że według szacunków, około 80 proc. rozwiązań AI stosuje te metody, ale nie będzie podlegać dodatkowym obostrzeniom wynikającym z aktu.

– Z punktu widzenia biznesu jest to bardzo dobra informacja, przedsiębiorcy się cieszą. Jednak moim zdaniem jeden z celów aktu o sztucznej inteligencji, czyli ochrona obywatela, legł w gruzach, ponieważ wiele rozwiązań, które mają na nas bezpośredni wpływ, będzie pozostawała poza aktem, np. systemy do oceny zdolności kredytowej – ocenił ekspert.

Nie wolno sugerować niekorzystnych decyzji

Zgodnie z aktem o sztucznej inteligencji zakazane są m.in. systemy AI wykorzystywane do tego, żeby zmanipulować kogoś do podjęcia niekorzystnej dla niego decyzji. – W tym przypadku pojawiło się wiele uzasadnionych wątpliwości, np. czy systemy rekomendujące określone produkty na platformach e-commerce podlegają zakazowi – wskazał dr Nowakowski. Dodał, że teoretycznie mogłoby by tak być: część z nich wykorzystuje nasze słabości i manipuluje nami tak, żebyśmy np. kupili dany produkt, mimo że jest nam niepotrzebny; jeśli weźmiemy na niego kredyt, który później będziemy mieli problem spłacić, może to być działanie na naszą szkodę.

Według dr Nowakowskiego wyjaśnienia Komisji Europejskiej nie rozwiały tych wątpliwości. – Dużo w takich przypadkach zależy od prawnika, który będzie interpretował przepisy oraz od organów, takich jak polska Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, które będą odpowiedzialne za egzekwowanie regulacji. Diabeł tkwi w szczegółach i po spełnieniu pewnych warunków systemy rekomendacyjne mogą zostać uznane za zakazane, np. jeśli manipulacja była celowa, a zniekształcenie poznawcze i szkoda istotne – określił Nowakowski.

Techniki podprogowe – nie, przyjemne zapachy – tak

AI Act zakazuje też wykorzystywania w centrach handlowych systemów AI, które subtelnie wpływają na decyzje zakupowe klientów przez techniki podprogowe, np. dźwięki i obrazy w reklamach – wskazał. Jak dodał, jeśli takie zabiegi będą stosowane bez użycia systemu AI, np. w postaci ładnych zapachów czy przyjemnej muzyki, jest to dozwolone.

– Tego typu sprawy będzie trzeba analizować “case by case”, ponieważ nie da się jednoznacznie stwierdzić, że wszystkie praktyki manipulacyjne są zakazane, bądź, że nie są – z punktu widzenia AI Actu – podkreślił.

Wśród systemów zakazanych AI, znalazły się też te, które wykorzystują określone słabości, np. wiek, niepełnosprawność, czego efektem jest podjęcie niekorzystnej decyzji; a także systemy wykorzystywane do rozpoznawania emocji w miejscu pracy i w placówkach edukacyjnych – wskazał ekspert.

– Takie systemy są stosowane np. w chińskich salach wykładowych, gdzie służą do weryfikacji emocji studentów, żeby sprawdzić, czy ktoś ściągał, ale i w Europie w niektórych miejscach pracy – podkreślił Nowakowski.

Wyjaśnił, że zakazane są również systemy, które np. weryfikują konsultantów pod kątem ich emocji, tego czy w odpowiedni sposób się zachowują; zakazane są też systemy służące do tak zwanej zdalnej identyfikacji biometrycznej w przestrzeni publicznej, czyli kamery, które rozpoznają konkretne osoby – wskazał ekspert.

– Są wyjątki od tej zasady, np. niektóre kategorie przestępstw, czy poszukiwanie zaginionych dzieci; żeby użyć takich systemów, trzeba jednak spełnić dodatkowe przesłanki, obowiązuje też kontrola sądowo-administracyjna. Muszą być również spełnione obowiązki w zakresie tak zwanej przejrzystości, czyli informowania o nagrywaniu, co wynika z RODO – wyjaśnił prawnik.

Liczą się konteksty

Wskazał, że scoring społeczny, czyli dokonywanie oceny i profilowania człowieka pod kątem jego zachowań społecznych, “jako taki” nie będzie zakazany, ale z pewnymi wyjątkami. “Jeżeli prywatna firma lub państwo zbierze informacje o zachowaniach ludzi uczestniczących w protestach i ma w tym prawnie uzasadniony interes, np. w kontekście bezpieczeństwa i wykorzysta je w tym konkretnym celu – będzie to legalne. Natomiast jeśli podmiot na tej podstawie stworzy profile tych osób i zastosuje wobec nich ocenę punktową, której konsekwencją będzie przydzielanie lub odbieranie czegoś w zupełnie innych kontekstach, np. benefitów społecznych – takie działania będą zakazane.

Jak zauważył dr Nowakowski, zakazaną praktyką jest też wyciągnie wniosków z danych biometrycznych, np. na temat seksualności, poglądów politycznych czy religijnych, choć znowu – tutaj trzeba dokładnie przeanalizować każdy przypadek.

Podkreślił, że z AI Actu wyłączone są wojskowe zastosowania systemów sztucznej inteligencji oraz – z pewnymi zastrzeżeniami – z zakresu badań i rozwoju.

– Akt jest bardzo ograniczony w swoim zasięgu w kontekście praktyk zakazanych, więc nie będzie istotnie wpływał na przedsiębiorców; nie jest kagańcem na biznes – ocenił.

Dodał, że jeśli firma korzystająca z AI ma wątpliwości, czy wszystko jest zgodnie z prawem, powinna dokonać weryfikacji, czy ma do czynienia z systemem sztucznej inteligencji oraz z praktyką zakazaną. Z kolei tam, gdzie ryzyko jest nieakceptowalne, powinno dojść do interwencj, np. organu nadzoru w formie kar.

Kategorie:

Udostępnij ten artykuł:

Reklama

ad1a forum komunikacji [26.02-14.04.25]

Komentarze (0)

Nikt jeszcze nie skomentował tego artykułu. Bądź pierwszą osobą, która to zrobi.
Reklama

ad2 webinar KONTROLE SAMORZĄDY 2025 [20.03-28.04.25]

Dodaj komentarz

Możliwość komentowania dostępna jest tylko po zalogowaniu. Załóż konto lub zaloguj się aby móc pisać komentarze lub oceniać komentarze innych.
Reklama

ad1b podmioty zwolnione [12.02-26.03.25]

Te artykuły mogą Cię zainteresować

Przejdź do Aktualności
css.php
Copyright © 2025