sztuczna inteligencja

Analizy

Czy ochrona prywatności i sztuczna inteligencja idą w parze?

Blog: Prawo Nowych Technologii | Styczeń 2021

Sztuczna inteligencja postrzegana jest jako jedna z najważniejszych technologii przyszłości oraz centralny element cyfrowej transformacji społeczeństwa. Warto podkreślić, że niektóre technologie sztucznej inteligencji istnieją od kilkudziesięciu lat (pierwszy chatbot o imieniu Eliza został opracowany już w latach 1964-1966), jednakże to współczesna transformacja cyfrowa, w szczególności rozwój w zakresie mocy obliczeniowej oraz algorytmów, a także dostępność dużych ilości danych, przyniosły wielkie osiągnięcia w tej dziedzinie.

Przewiduje się, że przyszłe zastosowania sztucznej inteligencji będą miały ogromny wpływ na funkcjonowanie społeczeństwa, jednakże należy zauważyć, że już teraz sztuczna inteligencja stopniowo staje się nieodłącznym elementem naszego życia codziennego. Potwierdzeniem tej tezy mogą być prognozy IDC2 , z których wynika, że w roku 2024 inwestycje w sztuczną inteligencję osiągną wartość 110 mld USD, tj. wartość dwa razy wyższą od poziomu z roku 2020.

Czym dokładnie jest sztuczna inteligencja i jak aktualnie wpływa na nasze życie, w szczególności sferę prywatności?

Nowe terminy kursu dla Inspektorów Ochrony Danych

Termin sztuczna inteligencja (SI, ang. artificial intelligence, AI) odnosi się do systemów, które wykazują inteligentne zachowanie poprzez analizę swojego otoczenia i, na jej podstawie, podejmowanie działań - z pewnym stopniem autonomii - w celu osiągnięcia określonych celów. Takie systemy mogą być oparte wyłącznie na oprogramowaniu, działając w świecie wirtualnym (np. cyfrowi asystenci w telefonach lub komputerach, oprogramowanie do analizy obrazu, wyszukiwarki internetowe, systemy rozpoznawania mowy i twarzy) lub stanowić część składową urządzeń (np. zaawansowane roboty używane w fabrykach, autonomiczne samochody, drony lub aplikacje internetowe przedmiotów)3 .

Co do zasady, sztuczna inteligencja umożliwia systemom technicznym postrzeganie ich otoczenia, zebranie informacji i ich przegląd oraz rozwiązywanie problemów, mając na względzie osiągnięcie określonego rezultatu. Innymi słowy, system zbiera informacje (już przygotowane lub odebrane za pomocą określonego czytnika, np. czujników inteligentnej klimatyzacji czy kamery), przetwarza je i wdraża odpowiednie zachowanie. Systemy sztucznej inteligencji mogą w pewnym zakresie dostosować swoje działanie poprzez badanie skutków wcześniejszych zachowań i autonomiczne implementowanie rezultatu badania.

Wyrażenie “sztuczna inteligencja” stało się standardowym terminem branżowym dla szeregu technologii. Jednym z kluczowych obszarów, podkategorii SI, jest uczenie maszynowe (machine learning). Przez uczenie maszynowe należy rozumieć metodę / zespół technik, które wyszukują nowe wzorce oraz schematy zachowań w zbiorach danych i generują modele, które mogą być wykorzystywane do efektywnego przewidywania o danych4 . Chociaż nie cała dziedzina SI wiąże się z uczeniem maszynowym, większość działań w tym zakresie w pewien sposób wynika z uczenia maszynowego, np. zakresie rozpoznawania obrazów, transpozycji mowy na tekst, czy też klasyfikowania ryzyka kredytowego.

Aktualnie w polskim systemie prawnym nie znajdziemy odrębnych i szczegółowych regulacji w przedmiocie technologii SI. Stworzenie spójnej regulacji w zakresie nowej rzeczywistości cyfrowej jest dużym wyzwaniem legislacyjnym, w szczególności ze względu na nieustanny rozwój technologii. Warto podkreślić, że pod koniec grudnia 2020 r. Rada Ministrów ustanowiła "Politykę dla rozwoju sztucznej inteligencji w Polsce od roku 2020"5 , która w założeniu ma wskazać kierunek działaniom mającym na celu wspieranie rozwoju sztucznej inteligencji w Polsce, m.in. w administracji publicznej i gospodarce.  

W tym miejscu warto wskazać w jaki sposób sztuczną inteligencję postrzegają obywatele krajów członkowskich Unii Europejskiej. Badanie przeprowadzone w 2017 r. na zlecenie Komisji Europejskiej6  podaje, że 61% respondentów ma pozytywny stosunek do robotów i sztucznej inteligencji. Ponad ośmiu na dziesięciu respondentów (84%) zgadza się, że roboty są niezbędne, ponieważ mogą wykonywać prace, które są zbyt trudne lub zbyt niebezpieczne dla ludzi, a 68% potwierdza, że roboty i sztuczna inteligencja są dobre dla społeczeństwa, ponieważ pomagają ludziom wykonywać ich pracę lub codzienne zadania w domu. Jednocześnie, prawie dziewięciu na dziesięciu respondentów (88%) przyznaje, że roboty i sztuczna inteligencja to technologie, które wymagają starannego zarządzania.

W odniesieniu do postaw i praktyk związanych z zastosowaniem sztucznej inteligencji w firmach warto wspomnieć badanie z 2020 r. przeprowadzone przez Deloitte na temat stanu sztucznej inteligencji w firmach7. Według badania, 73% respondentów ze wszystkich badanych grup jest zdania, że sztuczna inteligencja w chwili obecnej jest „bardzo ważna” lub ma „kluczowe znaczenie” dla ich firmy. Ponadto 75% respondentów spodziewa się transformacji cyfrowej przedsiębiorstwa w okresie trzech najbliższych lat. Zachęcamy do zapoznania się z niniejszym badaniem Deloitte pod tym adresem.

Zastosowania sztucznej inteligencji w coraz większym stopniu przenikają dziedziny naszego życia niosąc przy tym szereg wyraźnych korzyści. Należy jednak pamiętać, że korzystanie z innowacyjnych rozwiązań technologicznych generuje również w pewnym stopniu zagrożenia, a co za tym idzie stojące za nimi pewne wyzwania prawne. Za jedno z ww. wyzwań można uznać poszanowanie praw i wolności jednostek w zakresie ich prywatności. Należy zauważyć, że konsekwencje, jakie SI wywiera na ochronę danych osobowych mogą być różne i są w dużym stopniu uzależnione od konkretnych przypadków wykorzystywania danych, społeczności, w której systemy SI są wykorzystywane, innych nakładających się na siebie wymogów regulacyjnych, a także względów społecznych, kulturowych i politycznych.

Aktem prawnym regulującym ochronę osób fizycznych w związku z przetwarzaniem ich danych osobowych na poziomie unijnym jest RODO8 . W świetle RODO „danymi osobowymi” są „wszelkie informacje o zidentyfikowanej lub możliwej do zidentyfikowania osobie fizycznej, zaś możliwa do zidentyfikowania osoba fizyczna to osoba, którą można bezpośrednio lub pośrednio zidentyfikować, w szczególności na podstawie identyfikatora takiego jak: imię i nazwisko, numer identyfikacyjny, dane o lokalizacji, identyfikator internetowy lub jeden bądź kilka szczególnych czynników określających fizyczną, fizjologiczną, genetyczną, psychiczną, ekonomiczną, kulturową lub społeczną tożsamość osoby fizycznej”. W świetle powyższej definicji zauważyć należy, że nie każda informacja wykorzystywana w systemach SI stanowi daną osobową. Dzieje się tak, ponieważ niektóre informacje nie umożliwiają zidentyfikowania osoby fizycznej w taki sposób, aby odróżnić ją od pozostałych osób fizycznych.

„Przetwarzanie” natomiast oznacza „operację lub zestaw operacji wykonywanych na danych osobowych lub zestawach danych osobowych w sposób zautomatyzowany lub niezautomatyzowany, taką jak zbieranie, utrwalanie, organizowanie, porządkowanie, przechowywanie, adaptowanie lub modyfikowanie, pobieranie, przeglądanie, wykorzystywanie, ujawnianie poprzez przesłanie, rozpowszechnianie lub innego rodzaju udostępnianie, dopasowywanie lub łączenie, ograniczanie, usuwanie lub niszczenie”.

Korzystając z systemu sztucznej inteligencji oraz przetwarzając w nim dane osobowe, należy upewnić się, że takie przetwarzanie jest zgodne z prawem, rzetelne i przejrzyste. Zgodne z prawem przetwarzanie danych osobowych – również w ramach systemów SI – oznacza, że wymagane jest posiadanie ważnej podstawy prawnej. Katalog podstaw prawnych przetwarzania danych osobowych został wskazany w art. 6 RODO. Przetwarzanie powinno być również przejrzyste – osoby, których dane osobowe są przetwarzane powinny otrzymać informację, że dotyczące ich dane osobowe są zbierane, wykorzystywane, przeglądane lub w inny sposób przetwarzane oraz w jakim stopniu te dane osobowe są lub będą przetwarzane. Zasada przejrzystości wymaga, by wszelkie informacje i wszelkie komunikaty związane z przetwarzaniem tych danych osobowych były łatwo dostępne i zrozumiałe oraz sformułowane jasnym i prostym językiem. Zasada ta dotyczy w szczególności powiadomienia osób, których dane dotyczą, o informacjach wskazanych wprost w RODO.

Dla zgodnego z prawem przetwarzania danych osobowych istotne jest poszanowanie wynikających z RODO zasad dotyczących przetwarzania danych osobowych, m.in. zasady minimalizacji danych, z którą wiąże się konieczność ograniczenia kategorii oraz ilości przetwarzanych danych osobowych wyłącznie do tych, które są rzeczywiście niezbędne do realizacji określonych i zgodnych z prawem celów.

Warto podkreślić, że kluczowym zagadnieniem w przypadku przetwarzania danych osobowych jest zastosowanie zasady podejścia opartego na ryzyku, na podstawie której należy wdrożyć takie środki bezpieczeństwa, które w danych okolicznościach przetwarzania (tutaj: korzystanie z systemów SI) minimalizują związane z tym przetwarzaniem ryzyko naruszenia praw i wolności. Przy wyborze tych środków należy uwzględnić aktualny stan wiedzy technicznej, koszt wdrożenia oraz charakter, zakres, kontekst i cele przetwarzania. Działania zmierzające do zapewnienia zgodności z regulacjami z zakresu ochrony danych osobowych obejmują zatem m.in. ocenę ryzyka dla praw i wolności jednostek oraz ocenę, co jest właściwe w tych okolicznościach. Co ważne, we wszystkich przypadkach należy zapewnić przestrzeganie wymogów ochrony danych osobowych9.

Mając na względzie powyższe, należy zauważyć, że zapewnienie zgodności z regulacjami z zakresu ochrony danych osobowych to proces ciągły oraz złożony, na który składa się wiele elementów, między innymi:

  • ustalenie czy w danym przypadku mamy do czynienia z danymi osobowymi i ich przetwarzaniem – czy sztuczna inteligencja wykorzystuje dane osobowe;
  • określenie statusu administratora danych osobowych / podmiotu przetwarzającego dla określonych operacji przetwarzania danych osobowych związanych z tworzeniem lub wdrażaniem systemów SI oraz wynikające z tego konsekwencje dla obowiązków tych podmiotów;
  • ocena ryzyka naruszenia praw i wolności osób, których dane będą przetwarzane, uwzględnienie ich przy projektowaniu systemu SI lub podejmowaniu decyzji o jego wykorzystaniu;
  • przeprowadzenie oceny skutków dla ochrony danych osobowych – w szczególności biorąc pod uwagę fakt, że innowacyjne wykorzystanie lub zastosowanie rozwiązań technologicznych lub organizacyjnych zostało wskazane jako jeden z rodzajów operacji przetwarzania danych osobowych wymagających przeprowadzenia oceny skutków przetwarzania dla ich ochrony w Komunikacie Prezesa Urzędu Ochrony Danych Osobowych10
  • rozważenie w jaki sposób należy uzasadnić, udokumentować i wykazać podjęte działania, w tym decyzję o wykorzystaniu systemów sztucznej inteligencji do danego przetwarzania danych;
  • realizacja obowiązku informacyjnego względem osób, których dane są przetwarzane zgodnie z wymogami RODO.

Nowe technologie już teraz stają się nieodłączną częścią zarówno biznesu, jak i życia prywatnego. Co więcej, przewiduje się, że kolejne lata przyniosą jeszcze większe inwestycje w sztuczną inteligencję – z całą pewnością zjawisko transformacji cyfrowej będziemy obserwować jeszcze przez długi czas. W związku z powyższym można spodziewać się wzmożonych prac ustawodawczych i programowych, co jednak będzie stanowić w pewnym stopniu wyzwanie legislacyjne z uwagi na nieustanny rozwój technologii.

Z całą pewnością sztuczna inteligencja i ochrona prywatności nie muszą się wykluczać – niemniej jednak korzystanie z systemów SI wymaga zachowania zgodności z wymogami RODO. Należy stanowczo podkreślić wagę praw i wolności jednostek w zakresie ich prywatności – kluczowe dla zachowania wysokiego poziomu ochrony danych osobowych jest, aby osoby, których dane osobowe dotyczą były w pełni świadome otaczających ich zagrożeń, a także przysługujących im praw i wolności związanych z prywatnością.
 

- mówi Karolina Smolarek, Aplikantka adwokacka, Associate, Deloitte Legal

[1] Joseph Weizenbaum, Massachusettes Institute of Technology, Cambridge, (red.) A.G. Oettinger, “ELIZA – A computer Program for the Study of Natural Language Communication Between Man And Machine”, Computational Linguistics, Volume 9, Number 1, Styczeń 1966 r.;

[2] International Data Corporation, “Worldwide Spending on Artificial Intelligence Is Expected to Double in Four Years, Reaching $110 Billion in 2024, According to New IDC Spending Guide”, 25 sierpnia 2020 r.;

[3] Więcej informacji w zakresie definicji sztucznej inteligencji można znaleźć w dokumencie przygotowanym przez Komisję Europejską, „A definition of AI: Main capabilities and disciplines”;

[4] Prof. Dr. Lilian Mitrou, „Data protection, artificial intelligence and cognitive services. Is the General Data Protection Regulation (GDPR) “Artificial Intelligence-Proof?”, Kwiecień 2019 r.;

[5] Uchwała nr 196 Rady Ministrów z dnia 28 grudnia 2020 r. w sprawie ustanowienia "Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020" (M. P. z 2021 r. poz. 23);

[6] Badanie Special Eurobarometer 460, „Attitudes towards the impact of digitisation and automation on daily life”, na zlecenie Komisji Europejskiej, Dyrekcji Generalnej ds. Sieci Komunikacyjnych, Treści i Technologii oraz koordynowane przez Dyrekcję Generalną ds. Komunikacji, Maj 2017 r.;

[7] „Jak prosperować w biznesie w epoce sztucznej inteligencji? Raport na temat stanu sztucznej inteligencji w firmach”, https://www2.deloitte.com/pl/pl/pages/technology/articles/jak-prosperowac-w-biznesie-w-epoce-sztucznej-inteligencji.html/?nc=1, dostęp 14 stycznia 2021 r.;

[8] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych);

[9] Tak również: Information Comissioner’s Office, Guidance on AI and data protection, lipiec 2020;

[10] Komunikat Prezesa Urzędu Ochrony Danych Osobowych z dnia 17 czerwca 2019 r. w sprawie wykazu rodzajów operacji przetwarzania danych osobowych wymagających oceny skutków przetwarzania dla ich ochrony (M.P. 2019 poz. 666).

Czy ta strona była pomocna?