Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI Unia Europejska mówi
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 


 

POLECANE
Polacy tracą zaufanie do sądów. Sondaż ujawnia niepokojące dane z ostatniej chwili
Polacy tracą zaufanie do sądów. Sondaż ujawnia niepokojące dane

Zaufanie do wymiaru sprawiedliwości w Polsce dramatycznie spada. Ponad połowa obywateli nie wierzy sądom, a liczby pokazują, że to najgłębszy kryzys od lat.

Aleksander Grad trafił do Agencji Rozwoju Przemysłu z ostatniej chwili
Aleksander Grad trafił do Agencji Rozwoju Przemysłu

Były minister skarbu w rządzie Donalda Tuska, Aleksander Grad, został doradcą prezesa Agencji Rozwoju Przemysłu – ustaliła Telewizja Republika. Do grona doradców dołączył także Paweł Wojtunik, były szef Centralnego Biura Antykorupcyjnego.

Kontrola projektów KPO. Nieprawidłowości jedynie w 0,05 promila przypadków z ostatniej chwili
Kontrola projektów KPO. "Nieprawidłowości jedynie w 0,05 promila przypadków"

Resort funduszy sprawdza, jak przedsiębiorcy wydawali unijne pieniądze – w grę wchodziły nawet zakupy jachtów. Minister Katarzyna Pełczyńska-Nałęcz przedstawiała podczas konferencji wyniki kontroli wydanych środków.

Były komisarz Wojciechowski o umowie UE z MERCOSUR: Jest nieakceptowalna. Może zdestabilizować rynek z ostatniej chwili
Były komisarz Wojciechowski o umowie UE z MERCOSUR: Jest nieakceptowalna. Może zdestabilizować rynek

„Wszystkie te sektory są zagrożone, bo są duże kwoty importowe, bezcłowe, m.in. z krajów Mercosuru. I to może zdestabilizować rynek, uderzyć w producentów europejskich. Umowa z krajami Mercosur jest przykładem jak korzyści innych branż, przemysłu europejskiego jest przedkładane ponad rolnictwo, dla którego nie ma praktycznie żadnych pozytywów, a wręcz jest nieakceptowalna” - mówił w wywiadzie dla portalu Farmer.pl były unijny komisarz ds. rolnictwa Janusz Wojciechowski odnosząc się do podpisanej niedawno przez Ursulę von der Leyen umowie z krajami MERCOSUR.

Burza w warszawskiej policji. Jest wniosek do MSWiA o odwołanie komendanta z ostatniej chwili
Burza w warszawskiej policji. Jest wniosek do MSWiA o odwołanie komendanta

Do MSWiA wpłynął wniosek o odwołanie z funkcji komendanta stołecznego policji insp. Dariusza Walichnowskiego - potwierdziła w piątek rzecznik prasowa resortu Karolina Gałecka.

Nowa polityka spójności zrealizuje lewicową agendę z ostatniej chwili
Nowa polityka spójności zrealizuje lewicową agendę

Parlament Europejski i Rada uzgodniły kluczowe aktualizacje polityki spójności UE, umożliwiające państwom i regionom Europy realokację środków na nowe priorytety strategiczne, takie jak obronność, zrównoważone mieszkalnictwo, odporność na wodę i transformacja energetyczna, czyli pieniądze z unijnych funduszy mają zostać przeznaczone przede wszystkim na sfinansowanie założeń Zielonego Ładu.

Fatalny błąd PAP w depeszy nt. Polski i Donalda Trumpa. „Największa dezinformacja od lat” z ostatniej chwili
Fatalny błąd PAP w depeszy nt. Polski i Donalda Trumpa. „Największa dezinformacja od lat”

Polska Agencja Prasowa znalazła się w ogniu krytyki po tym, jak opublikowała – a po paru godzinach usunęła – depeszę dotyczącą wywiadu Donalda Trumpa dla Fox News. W materiale błędnie przypisano słowa prezydenta USA o „pomocy po wojnie” Polsce, choć w rzeczywistości dotyczyły one Ukrainy.

Tusk nie zmienia linii politycznej. Minister Berek zapowiada dalsze „przywracanie praworządności” z ostatniej chwili
Tusk nie zmienia linii politycznej. Minister Berek zapowiada dalsze „przywracanie praworządności”

– Przywracanie praworządności jako punkt wyjścia musimy kontynuować w bardzo trudnych warunkach prawnych, faktycznych, związanych z różnym spojrzeniem reprezentowanym przez różne ośrodki władzy w Polsce, w tym przez prezydenta, ale nie odstąpimy od tej drogi, żeby postawić instytucje publiczne, przywrócić im ich konstytucyjny wymiar – zapowiedział minister nadzoru nad wdrażaniem polityki rządu Maciej Berek. Rząd planuje także utrzymanie możliwości orzekania dla sędziów, którzy znajdują się w stanie spoczynku, czyli de facto zamierza możliwie opóźnić wymianę pokoleniową w tej grupie zawodowej w celu utrzymania przy orzekaniu tych sędziów, którzy sprzyjają obecnej władzy.

PiS ponownie spotka się z Szymonem Hołownią z ostatniej chwili
PiS ponownie spotka się z Szymonem Hołownią

W piątek 19 września miało dojść do spotkania marszałka Sejmu Szymona Hołowni z wiceszefem klubu PiS Marcinem Ociepą. Chodzi o projekt uchwały autorstwa PiS dotyczący wywłaszczenia ambasady Rosji w Warszawie i przeniesienia jej w inne miejsce. Jak ustaliła Wirtualna Polska, PiS chce, by uchwała została podjęta jeszcze na najbliższym posiedzeniu Sejmu.

Wiadomości
Sprzedawcy na pierwszej linii profilaktyki. Jak szkolenie z odpowiedzialnej sprzedaży wpływa na dostępność alkoholu dla nieletnich

Jednym z ważnych elementów działań profilaktycznych jest uniemożliwienie zakupu alkoholu osobom niepełnoletnim i tym z grup ryzyka. Wsparciem dla sprzedawców są szkolenia z odpowiedzialnej sprzedaży alkoholu, takie jak „Zostań OSA – Odpowiedzialnym Sprzedawcą Alkoholu!”. Dzięki nim sprzedawcy zyskują umiejętność asertywnego odmawiania sprzedaży alkoholu.

REKLAMA

Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI Unia Europejska mówi
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 



 

Polecane
Emerytury
Stażowe