Przedstawicielstwo w Polsce

Cyfrowa rewolucja pod kontrolą

/poland/file/cyfrowa-rewolucja-pod-kontrol%C4%85_plCyfrowa rewolucja pod kontrolą

Cyfrowa rewolucja pod kontrolą
AdobeStock

Nowe przepisy i działania na rzecz doskonałości i wiarygodności sztucznej inteligencji muszą gwarantować bezpieczeństwo i prawa podstawowe obywateli oraz firm. - W dziedzinie sztucznej inteligencji zaufanie jest koniecznością, a nie tylko mile widzianym dodatkiem – powiedziała wiceprzewodnicząca wykonawcza do spraw Europy na miarę ery cyfrowej Margrethe Vestager.

21/04/2021

Komisja proponuje nowe przepisy i działania, aby przekształcić Europę w globalne centrum wiarygodnej sztucznej inteligencji (AI). Połączenie pierwszych w historii ram prawnych dotyczących sztucznej inteligencji i nowego skoordynowanego planu opracowanego wraz z państwami członkowskimi zagwarantuje bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw, co przyczyni się do upowszechnienia AI oraz do zwiększenia inwestycji i innowacyjności w tej dziedzinie w całej UE. Podejście to uzupełnią nowe przepisy dotyczące maszyn, zmieniające zasady bezpieczeństwa w taki sposób, aby zwiększyć zaufanie użytkowników do produktów nowej generacji o wszechstronnych zastosowaniach.

Margrethe Vestager, wiceprzewodnicząca wykonawcza do spraw Europy na miarę ery cyfrowej, powiedziała: - Dzięki tym przełomowym przepisom UE obejmuje pozycję lidera w dziedzinie opracowywania nowych globalnych norm, które sprawią, że sztuczna inteligencja stanie się wiarygodną technologią. Ustanawiając standardy, możemy utorować drogę etycznym technologiom na całym świecie i zagwarantować, że UE pozostanie konkurencyjna. Nasze przepisy są dostosowane do przyszłych wyzwań, sprzyjają innowacjom i umożliwiają interwencję tam, gdzie jest to absolutnie potrzebne: gdy zagrożone są bezpieczeństwo i prawa podstawowe obywateli UE.

Komisarz ds. rynku wewnętrznego Thierry Breton powiedział: - Sztuczna inteligencja jest środkiem, a nie celem. Ta technologia istnieje od kilkudziesięciu lat, ale osiągnęła nowe możliwości dzięki dostępnej obecnie mocy obliczeniowej. Oferuje ona ogromne możliwości w tak różnorodnych dziedzinach jak zdrowie, transport, energia, rolnictwo, turystyka czy bezpieczeństwo cybernetyczne. Wiąże się jednak również z szeregiem zagrożeń. Dzisiejsze wnioski mają na celu wzmocnienie pozycji Europy jako globalnego centrum doskonałości w dziedzinie sztucznej inteligencji na wszystkich etapach, od laboratorium po rynek, zagwarantowanie zgodności sztucznej inteligencji w Europie z naszymi wartościami i przepisami oraz wykorzystanie potencjału tej technologii w zastosowaniach przemysłowych.

Dzięki nowemu rozporządzeniu w sprawie sztucznej inteligencji Europejczycy będą mogli zaufać ofercie AI. Proporcjonalne i elastyczne przepisy pozwolą zaradzić szczególnym zagrożeniom stwarzanym przez systemy sztucznej inteligencji i ustanowią najwyższe na świecie standardy. W skoordynowanym planie przedstawiono zmiany w polityce i inwestycje na szczeblu państw członkowskich, które są konieczne, aby wzmocnić wiodącą pozycję Europy w rozwoju ukierunkowanej na człowieka, zrównoważonej, bezpiecznej, sprzyjającej włączeniu społecznemu i wiarygodnej sztucznej inteligencji.

Europejskie podejście do wiarygodnej sztucznej inteligencji

Nowe przepisy będą stosowane bezpośrednio w ten sam sposób we wszystkich państwach członkowskich w oparciu o dostosowaną do przyszłych wyzwań definicję sztucznej inteligencji. Przyjęto w nich podejście oparte na analizie ryzyka:

Niedopuszczalne ryzyko: systemy sztucznej inteligencji, które uznaje się za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw obywateli, zostaną zakazane. Są to np. systemy lub aplikacje wykorzystujące sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników (np. zabawki z wbudowanym asystentem głosowym zachęcające małoletnich do niebezpiecznych zachowań) oraz systemy oceny punktowej obywateli przez rządy.

Wysokie ryzyko: systemy AI uznane za systemy wysokiego ryzyka obejmują technologię AI stosowaną w:

  • infrastrukturze krytycznej (np. w transporcie), co mogłoby zagrozić życiu i zdrowiu obywateli;
  • kształceniu lub szkoleniu zawodowym, co może decydować o dostępie do kształcenia i szkolenia zawodowego danej osoby (np. ocena egzaminów);
  • elementach bezpieczeństwa produktów (np. zastosowanie AI w chirurgii wspomaganej robotem);
  • zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacji);
  • podstawowych usługach prywatnych i publicznych (np. ocena zdolności kredytowej, która może uniemożliwić obywatelom dokonanie pewnych inwestycji);
  • egzekwowaniu prawa, co może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów);
  • zarządzaniu migracją, azylem i kontrolą granic (np. ocena autentyczności dokumentów podróży);
  • sprawowaniu wymiaru sprawiedliwości i procesach demokratycznych (np. stosowanie prawa do konkretnego zbioru faktów).

Systemy sztucznej inteligencji wysokiego ryzyka będą musiały spełnić rygorystyczne wymogi przed wprowadzeniem do obrotu:

  • odpowiednie systemy oceny i ograniczania ryzyka;
  • wysoka jakość zbiorów danych zasilających system w celu zminimalizowania ryzyka i dyskryminujących skutków;
  • ewidencjonowanie działania w celu zapewnienia identyfikowalności wyników;
  • szczegółowa dokumentacja zawierająca wszystkie informacje na temat systemu i jego celu, aby organy mogły ocenić jego zgodność z wymogami;
  • jasne i odpowiednie informacje dla użytkownika;
  • odpowiednie środki nadzoru przez człowieka w celu zminimalizowania ryzyka;
  • wysoki poziom solidności, bezpieczeństwa i dokładności.

W szczególności za systemy wysokiego ryzyka uznaje się wszystkie rodzaje zdalnej identyfikacji biometrycznej, które w związku z tym objęto ścisłymi wymogami. Korzystanie z nich w czasie rzeczywistym na potrzeby ochrony porządku publicznego w miejscach dostępnych publicznie jest co do zasady zabronione. Wyjątki od tej zasady są ściśle określone i uregulowane (dotyczy to np. sytuacji, gdy korzystanie z takich technologii jest absolutnie niezbędne do poszukiwania zaginionego dziecka, zapobieżenia konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub do wykrycia, zlokalizowania, zidentyfikowania lub ścigania sprawcy lub podejrzanego o popełnienie poważnego przestępstwa). Tego rodzaju zastosowanie wymaga uzyskania zezwolenia sądu lub innego niezależnego organu oraz musi być odpowiednio ograniczone w odniesieniu do czasu, zasięgu geograficznego i przeszukiwanych baz danych.

Ograniczone ryzyko, tj. systemy sztucznej inteligencji podlegające szczególnym obowiązkom w zakresie przejrzystości: korzystając z systemów sztucznej inteligencji, takich jak chatboty, użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną, tak aby mogli podjąć świadomą decyzję o kontynuowaniu lub przerwaniu interakcji.

Minimalne ryzyko: wniosek ustawodawczy umożliwia swobodne korzystanie z zastosowań takich jak gry wideo z wykorzystaniem sztucznej inteligencji lub filtry spamu. Do tej kategorii należy zdecydowana większość systemów sztucznej inteligencji. Projekt rozporządzenia nie przewiduje interwencji w odniesieniu do tej kategorii zastosowań, ponieważ tego rodzaju systemy AI nie stanowią zagrożenia dla praw lub bezpieczeństwa obywateli lub zagrożenie to jest minimalne.

Jeżeli chodzi o zarządzanie, Komisja proponuje, aby nadzór nad nowymi przepisami sprawowały właściwe krajowe organy nadzoru rynku. Wdrożenie przepisów ułatwi Europejska Rada ds. Sztucznej Inteligencji, której utworzenie przyczyni się także do opracowania norm w dziedzinie AI. Ponadto proponuje się dobrowolne kodeksy postępowania dotyczące zastosowań sztucznej inteligencji nieobarczonych wysokim ryzykiem oraz piaskownice regulacyjne w celu ułatwienia odpowiedzialnego podejścia do innowacji.

Europejskie podejście do doskonałości w dziedzinie sztucznej inteligencji

Koordynacja wzmocni wiodącą pozycję Europy w dziedzinie ukierunkowanej na człowieka, zrównoważonej, bezpiecznej, sprzyjającej włączeniu społecznemu i wiarygodnej sztucznej inteligencji. Aby utrzymać konkurencyjność UE w skali globalnej, Komisja jest zaangażowana we wspieranie innowacji w zakresie rozwoju i stosowania technologii AI we wszystkich sektorach przemysłu i we wszystkich państwach członkowskich.

Skoordynowany plan w sprawie sztucznej inteligencji, opublikowany po raz pierwszy w 2018 r. w celu określenia działań i instrumentów finansowania rozwoju i wdrażania sztucznej inteligencji, umożliwił dynamiczny rozwój strategii krajowych i finansowanie przez UE partnerstw publiczno-prywatnych i badań naukowych oraz sieci innowacji. W kompleksowej aktualizacji skoordynowanego planu zaproponowano konkretne wspólne działania na rzecz współpracy, aby zapewnić zgodność wszystkich wysiłków z europejską strategią na rzecz sztucznej inteligencji i Europejskim Zielonym Ładem, przy jednoczesnym uwzględnieniu nowych wyzwań związanych z pandemią koronawirusa. Przedstawiono w nim wizję przyspieszenia inwestycji w sztuczną inteligencję, co może przyczynić się do ożywienia gospodarczego. Jego celem jest również pobudzenie wdrażania krajowych strategii w zakresie AI, wyeliminowanie fragmentacji i stawienie czoła globalnym wyzwaniom.

W ramach zaktualizowanego skoordynowanego planu wykorzystane zostaną środki finansowe przydzielone z następujących źródeł: programy „Cyfrowa Europa” i „Horyzont Europa”, Instrument na rzecz Odbudowy i Zwiększania Odporności, w którym przewidziano 20-procentowy cel w zakresie wydatków na technologie cyfrowe, oraz polityka spójności. Celem jest:

  • stworzenie warunków podstawowych sprzyjających rozwojowi i absorpcji AI poprzez wymianę informacji na temat polityki, wymianę danych i inwestowanie w krytyczne zdolności obliczeniowe;
  • wspieranie doskonałości w zakresie AI „od laboratorium po rynek” poprzez ustanowienie partnerstwa publiczno-prywatnego, budowanie i mobilizowanie zdolności w zakresie badań naukowych, rozwoju i innowacji, a także udostępnianie MŚP i administracji publicznej zaplecza na potrzeby testów i doświadczeń oraz centrów innowacji cyfrowych;
  • dopilnowanie, by sztuczna inteligencja służyła ludziom i była siłą na rzecz dobra w społeczeństwie poprzez odgrywanie wiodącej roli w opracowywaniu i wdrażaniu wiarygodnej sztucznej inteligencji, rozwijanie talentów i umiejętności poprzez wspieranie staży, sieci doktoranckich i stypendiów podoktoranckich w dziedzinach cyfrowych, włączanie wiarygodności do polityki w dziedzinie sztucznej inteligencji oraz promowanie europejskiej wizji zrównoważonej i wiarygodnej sztucznej inteligencji na świecie;
  • budowanie strategicznego przywództwa w sektorach i technologiach o dużym oddziaływaniu, w tym na środowisko, poprzez skupienie się na wkładzie AI w zrównoważoną produkcję, zdrowie (dzięki rozszerzeniu transgranicznej wymiany informacji), a także sektor publiczny, mobilność, sprawy wewnętrzne i rolnictwo oraz robotykę.

Europejskie podejście do nowych produktów przemysłu maszynowego

Produkty przemysłu maszynowego obejmują szeroką gamę produktów konsumpcyjnych i profesjonalnych, od robotów po kosiarki, drukarki 3D, maszyny budowlane i przemysłowe linie produkcyjne. W dyrektywie w sprawie maszyn, zastąpionej nowym rozporządzeniem w sprawie produktów przemysłu maszynowego, określono wymogi w zakresie bezpieczeństwa i higieny dotyczące maszyn. Dzięki nowemu rozporządzeniu w sprawie produktów przemysłu maszynowego nowa generacja maszyn zagwarantuje bezpieczeństwo użytkowników i konsumentów oraz będzie zachęcać do innowacji. Nowe rozporządzenie w sprawie sztucznej inteligencji uwzględni zagrożenia dla bezpieczeństwa związane z systemami AI, natomiast nowe rozporządzenie w sprawie produktów przemysłu maszynowego zapewni bezpieczną integrację systemów AI w maszynach. Przedsiębiorstwa będą musiały przeprowadzać tylko jedną ocenę zgodności.

Ponadto nowe rozporządzenie w sprawie produktów przemysłu maszynowego odpowiada na potrzeby rynku, zapewniając większą jasność obowiązujących przepisów, upraszczając obciążenia administracyjne i obniżając koszty ponoszone przez przedsiębiorstwa poprzez dopuszczenie cyfrowych formatów dokumentacji i dostosowanie opłat za ocenę zgodności dla MŚP, przy jednoczesnym zapewnieniu spójności z unijnymi ramami prawnymi dotyczącymi produktów.

Dalsze działania

Parlament Europejski i państwa członkowskie powinny przyjąć wnioski Komisji w sprawie europejskiego podejścia do sztucznej inteligencji i produktów przemysłu maszynowego w ramach zwykłej procedury ustawodawczej. Po ich przyjęciu rozporządzenia będą bezpośrednio stosowane w całej UE. Jednocześnie Komisja będzie nadal współpracować z państwami członkowskimi, aby zrealizować działania zapowiedziane w skoordynowanym planie.

Kontekst

Komisja już od wielu lat ułatwia i zacieśnia współpracę w zakresie AI w całej UE w celu zwiększenia swojej konkurencyjności i zapewnienia zaufania w oparciu o unijne wartości.

Po opublikowaniu europejskiej strategii na rzecz sztucznej inteligencji w 2018 r. i po szeroko zakrojonych konsultacjach z zainteresowanymi stronami grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji opracowała w 2019 r. wytyczne dotyczące wiarygodnej sztucznej inteligencji, a w 2020 r. – listę kontrolną w zakresie wiarygodnej sztucznej inteligencji. Równocześnie w grudniu 2018 r. opublikowano pierwszy skoordynowany plan w sprawie sztucznej inteligencji, będący zobowiązaniem podjętym wspólnie z państwami członkowskimi.

W opublikowanej w 2020 r. białej księdze Komisji w sprawie sztucznej inteligencji przedstawiono jasną wizję sztucznej inteligencji w Europie jako ekosystemu doskonałości i zaufania, stanowiącą podstawę dzisiejszego wniosku. W konsultacjach publicznych dotyczących białej księgi w sprawie sztucznej inteligencji wzięło udział wiele osób z całego świata. Białej księdze towarzyszyło „Sprawozdanie na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność”, w którym stwierdzono, że obecne przepisy dotyczące bezpieczeństwa produktów zawierają szereg luk, które należy wyeliminować, w szczególności w dyrektywie w sprawie maszyn.

Więcej informacji: