[ artykuł sponsorowany ]
Już we wrześniu b.r. wchodzą w życie nowe regulacje dotyczące zarządzania i dzielenia się danymi w krajach UE. Utworzenie europejskiej przestrzeni danych, która obejmie podmioty prywatne oraz publiczne otworzy nowe kierunki rozwoju dla wielu firm. Jednak nie wszyscy przedsiębiorcy staną się beneficjentami tych zmian.
Dlatego już teraz warto zapoznać się z unijnymi przepisami, aby móc oszacować szanse i zagrożenia, a także wdrożyć odpowiednie mechanizmy zarządzania danymi w firmie. W ostatnim czasie Komisja Europejska intensywnie pracowała także nad przepisami regulującymi wykorzystanie sztucznej inteligencji w produktach i usługach oferowanych na rynku unijnym.
Akt o sztucznej inteligencji, który wejdzie w życie prawdopodobnie w 2026 roku, dotknie wszystkie firmy działające w obszarze AI i wyznaczy kierunki rozwoju tej technologii na kolejne lata. Regulacje dotyczące sztucznej inteligencji, które proponuje KE różnią się od tych przyjętych przez USA czy Chiny. W rezultacie, firmy, które działają na rynku globalnym muszą dostosować swoją strategię biznesową do zróżnicowanych wymagań, a tym samym możliwości rozwoju w zależności od kraju, w którym działają.
Przepisy dotyczące wykorzystania danych
O tym, jak nowe przepisy dotyczące wykorzystania danych oraz sztucznej inteligencji w UE mogą wpłynąć na działalność i rozwój firmy, oraz jak przygotować się na nadchodzące zmiany, będą mówić czołowi eksperci ds. ekonomii danych na konferencji Data Economy Congress. Kolejna już edycja tego cross-sektorowego wydarzenia będzie próbą nakreślenia możliwych ścieżek rozwoju data economy w Polsce w obliczu zmian legislacyjnych oraz technologicznych.
Data Economy Congress odbędzie się w dniach 9-10 października b.r. w The Westin Warsaw Hotel.
Program kongresu oraz bilety są dostępne na stronie wydarzenia Data Economy Congress.
Nowe regulacje unijne, które zrewolucjonizują rynek danych
W 2020 roku Komisja Europejska zainicjowała europejską strategię zarządzania danymi, której rezultatem ma być jednolity rynek wykorzystania danych. W strategii uwzględniono szereg inicjatyw i regulacji, wśród których najważniejsze to:
- Utworzenie i rozwój europejskich przestrzeni danych, obejmujących zarówno podmioty prywatne, jak i publiczne.
- Akt w sprawie zarządzania danymi (The Data Governance Act – DGA), który ma na celu stworzenie rynku współdzielenia danych osobowych i nieosobowych (danych przemysłowych) zgodnie z zasadami i wartościami UE, w tym ochronę prywatności, konsumentów, prawa własności intelektualnej oraz zasad konkurencji.
- Akt w sprawie danych (The Data Act), który ma na celu regulowanie i promowanie współdzielenia danych między firmami w sektorze prywatnym oraz między firmami prywatnymi a organami publicznymi.
- Akt w sprawie sztucznej inteligencji (The Artificial Intelligence Act), który wprowadza podejście oparte na ryzyku w zakresie wykorzystania AI, zakazując m.in. wykorzystania AI w pewnych obszarach.
DGA i Data Act
Data Governance Act (DGA) uważa się za kluczowy filar strategii KE, który stworzy prawne ramy wspólnych europejskich przestrzeni danych w strategicznych dziedzinach takich jak: zdrowie, środowisko, energia, rolnictwo, mobilność, finanse, produkcja czy administracja publiczna.
DGA wprowadza przede wszystkim mechanizm ponownego wykorzystania cyfrowych danych osobowych i nieosobowych, które pierwotnie znajdują się w posiadaniu podmiotów sektora publicznego. Dane te mogą być wykorzystane przez osoby fizyczne i prawne w celach komercyjnych oraz niekomercyjnych. Co ważne, w sytuacji, w której przedmiotem ponownego wykorzystania będą dane zawierające dane osobowe konieczne będzie postępowanie zgodne z RODO. Przepisy zawarte w Data Governance Act wejdą w życie 24 września 2023.
Z kolei, celem Data Act jest ochrona małych i średnich przedsiębiorstw przed potencjalnie nieuczciwymi warunkami umów o współdzieleniu danych, narzucanymi przez firmy mające silniejszą pozycję w negocjacjach. Akt umożliwi dostęp do danych gromadzonych przez producentów i dostawców usług użytkownikom (B2B oraz B2C) i będzie wymagać udostępniania danych, w pewnych okolicznościach, również stronom trzecim (np. dostawcom usług na rynku wtórnym oraz administracji publicznej).
Konsekwencje Data Governance Act oraz Data Act dla przedsiębiorców
Nie ma wątpliwości, że DGA oraz Data Act będą miały duży wpływ na europejskie i globalne przedsiębiorstwa, gdyż wprowadzą wiele nowych zasad dotyczących ochrony i zarządzania danymi. Akty nakładają na posiadaczy danych obowiązek projektowania swoich produktów i usług w sposób umożliwiający innym podmiotom, w tym organom sektora publicznego lub konsumentom jako użytkownikom bezpośrednim dostęp do danych w łatwy i bezpieczny sposób.
W praktyce może to wymagać od firm zaprojektowania kanałów, które pozwolą na udostępnianie danych zgodnie z nowymi zasadami, w tym mapowania przepływu danych i rezerw danych, zwłaszcza w przypadku danych nieosobowych. Prawdopodobnie konieczna będzie także aktualizacja warunków, polityk prywatności i wzorów dotychczasowych umów. Wszystko to będzie wymagało inwestycji finansowych ze strony posiadaczy danych. Co więcej, w przypadku danych osobowych wciąż będzie obowiązywało Ogólne Rozporządzenie o Ochronie Danych („RODO”), co może spowodować dodatkowe trudności w zachowaniu zgodności z obowiązującymi przepisami.
Warto zauważyć, że pojawienie się nowego ekosystemu składającego się z podmiotów publicznych i prywatnych może stworzyć ciekawe możliwości rozwoju dla wielu firm. Jednak na pewno będą również takie biznesy, które zostaną mocno ograniczone i poniosą straty z powodu wpływu regulacji na pewne modele biznesowe.
Dlatego ważne jest monitorowanie procesu legislacyjnego i przewidywanie szans i zagrożeń dla przedsiębiorstwa. Już teraz warto określić rolę firmy w gospodarce opartej na danych. Czy firma działa jako posiadacz danych, użytkownik czy strona trzecia? Należy także określić wewnętrzne oraz potencjalne zewnętrzne źródła danych.
Artificial Intelligence Act ogranicza ryzyka związane z AI
Gwałtowny rozwój sztucznej inteligencji (AI) w ostatnim czasie wymusił podjęcie szybkich kroków legislacyjnych zarówno w Europie, jaki w USA czy Chinach. W 2022 roku Komisja Europejska przyjęła Akt o sztucznej inteligencji (The Artificial Intelligence Act), który reguluje rozwój, wprowadzanie do obrotu i wykorzystywanie tej technologii.
Dokument określa pewne wymogi mające zastosowanie do projektowania systemów AI przed wprowadzeniem ich na rynek, przypisując zastosowanie sztucznej inteligencji do trzech kategorii ryzyka:
- Aplikacje i systemy, które generują niedopuszczalne ryzyko, takie jak np. rządowe systemy oceniania ludzi w stylu stosowanym w Chinach, są zakazane.
- Aplikacje wysokiego ryzyka, takie jak np. rozwiązania wspierające diagnostykę medyczną, systemy wykorzystywane w sektorze energetycznym, narzędzia wspierające obszar HR podlegają określonym wymogom prawnym i technologicznym.
- Aplikacje, które nie zostały wyraźnie zakazane lub wymienione jako obarczone niskim ryzykiem, nie są obarczone dodatkowymi wymaganiami prawnymi i technologicznymi.
Jednym z kluczowych celów AI Act jest zapewnienie, że systemy sztucznej inteligencji będą przejrzyste, wytłumaczalne i godne zaufania. Oznacza to, że przedsiębiorcy będą musieli dokładnie rozważyć potencjalny wpływ swoich produktów wykorzystujących AI na użytkowników, społeczeństwo i środowisko, a także podjąć kroki w celu zminimalizowania wszelkich zagrożeń.
Firmy nadal będą mogły eksperymentować i wprowadzać innowacje z użyciem sztucznej inteligencji, jednak gdy narzędzie lub oprogramowanie trafi na rynek musi być zgodne z przepisami, adekwatnie do klasyfikacji rozwiązania wykorzystującego sztuczną inteligencję.
Przepisy o AI vs przedsiębiorcy
Ponieważ przepisy o zastosowaniu sztucznej inteligencji mają szeroki zakres i stanowią pierwszą próbę kompleksowej regulacji produktów wykorzystujących AI, ich wpływ, zwłaszcza poza UE, jest obecnie trudny do określenia. Należy przy tym pamiętać, że podejście UE może zasadniczo różnić się od pojawiających się przepisów w innych jurysdykcjach. Firmy muszą, więc być przygotowane na konfrontację z różnymi późniejszymi regionalnymi przepisami dotyczącymi sztucznej inteligencji.
Czy i w jaki sposób Akt o sztucznej inteligencji może wpłynąć na rozwój innowacyjnych firm technologicznych w Polsce?
Analizując obecne działania związane z aspektami regulacyjnymi w obszarach związanych z danymi i sztuczną inteligencją, można odnieść wrażenie, że regulacje mogą ograniczać rozwój nowych technologii i powodować odwracanie się innowacyjnych firm od rynku europejskiego. Warto jednak spojrzeć szerzej na obecną dynamikę wdrażania produkcyjnego rozwiązań wykorzystujących AI w przedsiębiorstwach i zastanowić się dlaczego, pomimo niezwykłego wzrostu popularności sztucznej inteligencji, nie adaptuje się ona z wykładniczą prędkością w organizacjach. Odpowiedź znajdziemy w danych.
Sztuczna inteligencja opiera się na danych. Oczywistym więc jest, że przy braku dostępności do odpowiednich zbiorów danych, niewłaściwym przygotowaniu zbiorów uczących nie udaje się uzyskać oczekiwanych rezultatów. Systemowe podejście do Data Governance wymaga fundamentalnych zmian w kulturze organizacji. Kluczowe jest zrozumienie, jaką wartość można odnaleźć w danych oraz opracowanie właściwej metodyki zarządzania nimi. Takie przeorganizowanie myślenia o danych skutecznie zaczyna rozwiązywać problemy, które pojawiają się przed zespołami rozpoczynającymi procesy wykorzystywania AI w organizacjach.
Tak więc pojawiające się regulacje, których celem będzie systematyzacja zagadnień związanych z danymi oraz sztuczną inteligencją nie będzie czynnikiem, który może zahamować rozwój sztucznej inteligencji, a jedynie będzie normalizować ekosystem łączący dane i algorytmy. Odpowiednie zrozumienie technologii sztucznej inteligencji, potencjału danych i ich istotności, np. w procesach trenowania modeli sztucznej inteligencji jest prawdziwym kluczem do przyspieszenia rozwoju innowacji wykorzystujących AI, w sposób bezpieczny zarówno dla ludzi jak i biznesu. – wyjaśnia dr inż. Ireneusz Wochlik, Członek Zarządu Fundacji AI LAW TECH.
Różnice w podejściu do technologii AI przez UE, USA oraz Chiny
Dla firm inwestujących w sztuczną inteligencję kluczowe znaczenie ma zrozumienie obecnych i proponowanych ram prawnych regulujących tę nową technologię. W szczególności dla przedsiębiorstw działających globalnie, zadanie zapewnienia zgodności ich technologii AI z obowiązującymi przepisami będzie skomplikowane ze względu na różne standardy, które pojawiają się w Chinach, Unii Europejskiej i Stanach Zjednoczonych.
Podczas, gdy unijny Akt o sztucznej inteligencji koncentruje się na minimalizacji ryzyka oraz jego dokładnej analizie, co wpływa wprost na minimalizację zagrożeń, tworząc ścisłe ramy, w których muszą poruszać się przedsiębiorcy, to USA charakteryzuje znacznie bardziej liberalne podejście, dając firmom dużą swobodę w procesach rozwoju technologii AI. Z kolei podejście Chin do sztucznej inteligencji budzi obawy dotyczące prywatności i swobód obywatelskich, ponieważ rząd jest znany z wykorzystywania AI do celów nadzoru, cenzury i kontroli społecznej.
Przewiduje się, że Chiny będą wykorzystywać sztuczną inteligencję na dużą skalę do wzmacniania globalnych celów handlowych i technologicznych. To w jakim kierunku potoczy się rozwój produktów i narzędzi wykorzystujących AI jest wciąż niewiadomym, jednak już teraz nie ma wątpliwości, że innowacyjne firmy, które wiążą swoją przyszłość z rozwojem tej technologii muszą monitorować i dostosowywać się do zmian legislacyjnych w tym obszarze.