Koszyk Twój koszyk jest pusty ...
Strona główna » Baza wiedzy » AI ACT - Rozporządzenie UE w zakresie sztucznej inteligencji
Aktualności

Ile wynosi minimalne wynagrodzenie w 2025 r.

Minimalne wynagrodzenie od 1 stycznia 2025 r. wynosi 4666 zł brutto Minimalna stawka godzinowa wynosi odpowiednio 30,50 zł brutto
 
Newsletter

Prześlij nam swój adres e-mail, a my powiadomimy Cię o nowych produktach, najlepszych cenach, promocjach i wyprzedażach.

 
Wzór zaświadczenia
alt
 
Kontakt

AI ACT - Rozporządzenie UE w zakresie sztucznej inteligencji

Data dodania: 12-01-2025


Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689. Najważniejsze  aspekty i regulacje w zakresie sztucznej inteligencji

        Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, znane jako Akt w sprawie sztucznej inteligencji (AI Act), wprowadza kompleksowe przepisy regulujące rozwój, wdrażanie i stosowanie systemów AI na terenie Unii Europejskiej. Celem regulacji jest zapewnienie bezpieczeństwa, ochrony praw podstawowych oraz promowanie zaufania do rozwiązań opartych na sztucznej inteligencji. W artykule omówimy najważniejsze elementy rozporządzenia, w tym zakazane praktyki, wymogi dla systemów AI wysokiego ryzyka, przepisy dotyczące modeli AI ogólnego przeznaczenia oraz mechanizmy monitorowania rynku.
 

Zakazane praktyki w zakresie AI

    Jednym z fundamentalnych aspektów AI Act jest wyznaczenie granic, których systemy sztucznej inteligencji nie mogą przekraczać. Do zakazanych praktyk zaliczają się:

  1. Manipulacja zachowaniem użytkowników: Systemy AI nie mogą wykorzystywać technik manipulacyjnych w celu wpływania na decyzje lub zachowania użytkowników w sposób szkodliwy dla nich.

  2. Punktacja społeczna: Zakazuje się stosowania systemów punktacji społecznej przez organy publiczne, która mogłaby prowadzić do dyskryminacji lub naruszenia praw obywateli.

  3. Biometryczna identyfikacja w czasie rzeczywistym: W miejscach publicznych zabrania się stosowania systemów biometrycznej identyfikacji w czasie rzeczywistym, z wyjątkiem sytuacji szczególnie uzasadnionych, takich jak zwalczanie poważnych przestępstw.

Celem tych zakazów jest ochrona praw podstawowych i zapobieganie potencjalnym nadużyciom związanym z rozwojem technologii AI.
 

Wymogi dotyczące systemów AI wysokiego ryzyka

    Systemy sztucznej inteligencji uznawane za wysokiego ryzyka podlegają rygorystycznym wymogom, które mają na celu minimalizowanie potencjalnych zagrożeń. Obejmuje to:

  1. System zarządzania ryzykiem: Organizacje muszą wdrażać systemy zarządzania ryzykiem, obejmujące identyfikację, ocenę i łagodzenie zagrożeń związanych z danym systemem AI.

  2. Jakość danych: Dane wykorzystywane do trenowania modeli AI muszą być wysokiej jakości, adekwatne i wolne od uprzedzeń, aby zapobiegać dyskryminacji.

  3. Przejrzystość: Użytkownicy muszą być informowani o charakterze działania systemu AI oraz o jego potencjalnych ograniczeniach.

  4. Nadzór człowieka: Systemy muszą umożliwiać bieżący nadzór i ingerencję człowieka w kluczowe decyzje podejmowane przez AI.

 

Przepisy dotyczące modeli AI ogólnego przeznaczenia

     Modele AI ogólnego przeznaczenia, takie jak modele generatywne czy modele uczenia maszynowego stosowane w wielu branżach, podlegają odrębnym regulacjom. Rozporządzenie nakłada na ich dostawców obowiązki związane z:

  1. Dokumentacją techniczną: Modele muszą być odpowiednio opisane, w tym cel ich przeznaczenia oraz potencjalne ograniczenia.

  2. Zarządzaniem ryzykiem: Dostawcy są zobowiązani do przeprowadzania ocen ryzyka związanego z użyciem modeli AI w różnych kontekstach.

  3. Etykietowaniem i informowaniem: Użytkownicy powinni być świadomi, że korzystają z systemu AI i jakie są potencjalne skutki jego zastosowania.

 

Monitorowanie i nadzór rynku

    Aby zapewnić skuteczne wdrażanie i egzekwowanie przepisów AI Act, wprowadzono mechanizmy monitorowania i nadzoru rynku, w tym:

  1. Europejski Urząd ds. AI: Nowo powołany organ odpowiedzialny za nadzór przestrzegania przepisów, wspieranie krajowych organów nadzorczych oraz koordynację działań w skali całej Unii.

  2. Inspekcje i audyty: Organy nadzorcze mogą przeprowadzać inspekcje oraz wymagać przedstawienia dokumentacji technicznej w celu weryfikacji zgodności z przepisami.

  3. Sankcje za naruszenia: Rozporządzenie przewiduje surowe kary finansowe za naruszenia, które mogą sięgać nawet 6% rocznego globalnego obrotu organizacji.

 

Kogo dotyczy to rozporządzenie?

  Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 dotyczy szerokiego spektrum podmiotów zaangażowanych w rozwój, wdrażanie, dystrybucję i stosowanie systemów sztucznej inteligencji na terenie Unii Europejskiej. Regulacje obejmują:

  1. Dostawców systemów AI – podmioty odpowiedzialne za projektowanie, rozwijanie i udostępnianie systemów AI. Muszą one spełniać rygorystyczne wymogi dotyczące jakości danych, przejrzystości i zarządzania ryzykiem.

  2. Użytkowników profesjonalnych – organizacje i przedsiębiorstwa stosujące systemy AI w swojej działalności. Są zobowiązane do odpowiedniego nadzoru nad stosowanymi technologiami oraz przestrzegania przepisów w zakresie transparentności i ochrony praw użytkowników.

  3. Importerów i dystrybutorów – podmioty wprowadzające na rynek unijny systemy AI opracowane poza UE. Mają obowiązek zapewnienia, że produkty spełniają wymogi rozporządzenia.

  4. Organy publiczne – w tym instytucje państwowe, które stosują systemy AI np. do zarządzania usługami publicznymi. Szczególny nacisk kładzie się na zakaz punktacji społecznej i ograniczenia w zakresie biometrycznej identyfikacji.

  5. Dostawców modeli AI ogólnego przeznaczenia – twórcy uniwersalnych modeli sztucznej inteligencji, które mogą być adaptowane w różnych sektorach. Podlegają oni dodatkowym wymaganiom dotyczącym dokumentacji technicznej i zarządzania ryzykiem.

  6. Krajowe organy nadzorcze i Europejski Urząd ds. AI – odpowiedzialne za monitorowanie zgodności z przepisami, przeprowadzanie audytów oraz egzekwowanie kar w przypadku naruszeń.

Od kiedy obowiązuje?

Rozporządzenie weszło w życie 1 sierpnia 2024 r., a jego przepisy będą stopniowo wchodzić w życie w ciągu kolejnych 6 do 36 miesięcy.

Rozporządzenie ma na celu zapewnienie równowagi między promowaniem innowacji a ochroną praw podstawowych i interesów użytkowników. To duży krok w kierunku regulacji sztucznej inteligencji, zapewniający ochronę praw obywateli oraz promujący rozwój odpowiedzialnych technologii. Kluczowe obszary, takie jak zakazane praktyki, wymogi dla systemów AI wysokiego ryzyka, regulacje modeli AI ogólnego przeznaczenia oraz mechanizmy nadzoru rynku, stanowią solidną podstawę dla bezpiecznego i przejrzystego stosowania AI w Europie. Rozwiązania te wspierają rozwój technologiczny, jednocześnie dbając o interes społeczny.


Przejdź do strony głównej Wróć do kategorii Baza wiedzy
Newsletter

 

Sklep internetowy shopGold
Korzystanie z tej witryny oznacza wyrażenie zgody na wykorzystanie plików cookies. Więcej informacji możesz znaleźć w naszej Polityce Cookies.
Nie pokazuj więcej tego komunikatu