Pobierz kartę szkolenia

AI ACT w praktyce - budowanie w firmie zgodności i zarządzanie ryzykiem w erze sztucznej inteligencji i automatyzacji zgodnie z prawem

kod szkolenia: HR-AI / 1D PL

Od lutego 2025 roku obowiązuje unijne rozporządzenie AI Act, które nakłada na firmy nowe obowiązki prawne związane z wykorzystywaniem sztucznej inteligencji. Jeśli Twoja firma i pracownicy korzysta z AI w marketingu, HR, sprzedaży czy analizie danych lub gdy korzysta z systemów AI wysokiego ryzyka – ten temat już Cię dotyczy. Jest także nierozerwalnie związany z ochroną danych osobowych, czyli RODO.

To nie jest teoria. To praktyczne i kompletne szkolenie, które pozwala zrozumieć i wdrożyć przepisy w codziennej działalności firmy, zanim zrobi to za Ciebie UOKiK, PUODO lub organy odpowiedzialne za . Program został poszerzony o kluczowe aspekty związane z AI, etyką, odpowiedzialnością i prawem autorskim – wszystko w kontekście nowoczesnej i bezpiecznej organizacji.

Termin
tryb Distance Learning

poziom Podstawowy

czas trwania 1 dzień |  6h|  16.01
1 300,00 PLN + 23% VAT (1 599,00 PLN brutto)
Poprzednia najniższa cena:
1 300,00 PLN 1 599,00 PLN brutto

Szkolenie jest dedykowane kadrze zarządzającej oraz pracownikom kluczowych działów, którzy są odpowiedzialni za wdrażanie, nadzorowanie lub wykorzystywanie technologii AI w organizacji.

  • Zarząd i Kadra Kierownicza (CEO, CIO, CTO): Osoby odpowiedzialne za strategię, innowacje i zarządzanie ryzykiem w organizacji.
  • Działy Prawne i Compliance: Prawnicy wewnętrzni, Inspektorzy Ochrony Danych (IOD), audytorzy.
  • Liderzy i Menedżerowie Zespołów: Osoby nadzorujące zespoły w działach marketingu, sprzedaży, HR, IT, operacji i obsługi klienta.
  • Specjaliści i Praktycy: Pracownicy bezpośrednio korzystający z narzędzi AI (np. ChatGPT, Gemini, Copilot, Midjourney) lub wdrażający systemy oparte na AI (np. chatboty, systemy rekrutacyjne, analityczne).
  • Producenci i Dostawcy Technologii: Firmy tworzące i wprowadzające na rynek rozwiązania oparte na AI.
  • Praktycy biznesu, którzy chcą zrozumieć konsekwencje prawne wdrażania i korzystania z AI oraz spełnić obowiązek szkoleniowy.
  • Zgodność i Minimalizacja Ryzyka: Zapewnienie zgodności z AI Act i RODO, minimalizujące ryzyko nałożenia wysokich kar finansowych.
  • Udokumentowane Kompetencje: Spełnienie obowiązku szkoleniowego i posiadanie udokumentowanych dowodów na budowanie kompetencji AI w organizacji, wymaganych przez AI Act.
  • Praktyczne Narzędzia: Otrzymanie materiałów szkoleniowych i pakietu wzorów dokumentacji (polityka AI, matryca oceny ryzyka, checklisty), które znacząco przyspieszają proces wdrożenia.
  • Bezpieczna Innowacja: Zdolność do świadomego i bezpiecznego wdrażania narzędzi AI oraz korzystania z istniejących narzędzi AI, co przekłada się na przewagę konkurencyjną i zaufanie klientów, a także bezpieczeństwo obu stron.

Blok 1: Ramy prawne i strategiczne dla AI w biznesie

  • Prezentacja: AI Act i RODO – nowa mapa regulacyjna dla Twojej firmy
  • Piramida ryzyka wg AI Act: od praktyk zakazanych po systemy wysokiego ryzyka – co to oznacza dla Twoich procesów?
  • Kluczowe obowiązki dla firm wynikające z AI ACT
  • Zakazane praktyki AI i przykłady z biznesu
  • RODO i AI: legalne przetwarzanie danych osobowych
  • Kary
  • Etyka w stosowaniu AI – omówienie wyzwań etycznych związanych z rozwojem i stosowaniem sztucznej inteligencji
  • Przykłady zastosowań AI w firmie – etycznych, nieetycznych.

 Blok 2: Identyfikacja i klasyfikacja systemów AI w organizacji

  • Kryteria systemów wysokiego ryzyka (Załącznik III) – analiza przypadków (rekrutacja, scoring, biometria, infrastruktura krytyczna).
  • Obowiązki związane z przejrzystością: oznaczanie treści syntetycznych i deepfake'ów (Art. 50). Przykłady deepfake’ów.
  • Prawa autorskie i własność intelektualna w generowaniu treści razem z AI.
  • Mini-warsztat: Praca na przykładach deepfake’ów, checklista legalnego contentu AI.

Blok 3: Obowiązki Podmiotu Stosującego i kluczowa rola Nadzoru Ludzkiego

  • Checklista obowiązków podmiotu stosującego – od użycia zgodnego z instrukcją po monitorowanie i zgłaszanie incydentów.
  • Nadzór ludzki (Art. 14) – jak zaprojektować skuteczny proces, by uniknąć "błędu automatyzacji" i zapewnić możliwość interwencji.
  • Prawidłowe korzystanie z narzędzi AI: ChatGPT, Copilot, Gemini – co wolno, czego unikać,
  • Co robić, gdy pracownik korzysta z AI bez wiedzy firmy i jak się zabezpieczyć przed roszczeniami?
  • Mini-warsztat – inwentaryzacja narzędzi AI od kątem bezpiecznego korzystania i ryzyk. Praca z checklistą identyfikacyjną i rejestrem.

Blok 4: Podsumowanie i plan wdrożenia

  • Elementy wewnętrznej polityki użytkowania AI.
  • Sesja pytań i odpowiedzi.

Nie jest wymagane. 

Język – polski

Materiały – polski