AI ACT w praktyce - budowanie w firmie zgodności i zarządzanie ryzykiem w erze sztucznej inteligencji i automatyzacji zgodnie z prawem
kod szkolenia: HR-AI / 1D PL
Od lutego 2025 roku obowiązuje unijne rozporządzenie AI Act, które nakłada na firmy nowe obowiązki prawne związane z wykorzystywaniem sztucznej inteligencji. Jeśli Twoja firma i pracownicy korzysta z AI w marketingu, HR, sprzedaży czy analizie danych lub gdy korzysta z systemów AI wysokiego ryzyka – ten temat już Cię dotyczy. Jest także nierozerwalnie związany z ochroną danych osobowych, czyli RODO.
To nie jest teoria. To praktyczne i kompletne szkolenie, które pozwala zrozumieć i wdrożyć przepisy w codziennej działalności firmy, zanim zrobi to za Ciebie UOKiK, PUODO lub organy odpowiedzialne za . Program został poszerzony o kluczowe aspekty związane z AI, etyką, odpowiedzialnością i prawem autorskim – wszystko w kontekście nowoczesnej i bezpiecznej organizacji.
Szkolenie jest dedykowane kadrze zarządzającej oraz pracownikom kluczowych działów, którzy są odpowiedzialni za wdrażanie, nadzorowanie lub wykorzystywanie technologii AI w organizacji.
- Zarząd i Kadra Kierownicza (CEO, CIO, CTO): Osoby odpowiedzialne za strategię, innowacje i zarządzanie ryzykiem w organizacji.
- Działy Prawne i Compliance: Prawnicy wewnętrzni, Inspektorzy Ochrony Danych (IOD), audytorzy.
- Liderzy i Menedżerowie Zespołów: Osoby nadzorujące zespoły w działach marketingu, sprzedaży, HR, IT, operacji i obsługi klienta.
- Specjaliści i Praktycy: Pracownicy bezpośrednio korzystający z narzędzi AI (np. ChatGPT, Gemini, Copilot, Midjourney) lub wdrażający systemy oparte na AI (np. chatboty, systemy rekrutacyjne, analityczne).
- Producenci i Dostawcy Technologii: Firmy tworzące i wprowadzające na rynek rozwiązania oparte na AI.
- Praktycy biznesu, którzy chcą zrozumieć konsekwencje prawne wdrażania i korzystania z AI oraz spełnić obowiązek szkoleniowy.
- Zgodność i Minimalizacja Ryzyka: Zapewnienie zgodności z AI Act i RODO, minimalizujące ryzyko nałożenia wysokich kar finansowych.
- Udokumentowane Kompetencje: Spełnienie obowiązku szkoleniowego i posiadanie udokumentowanych dowodów na budowanie kompetencji AI w organizacji, wymaganych przez AI Act.
- Praktyczne Narzędzia: Otrzymanie materiałów szkoleniowych i pakietu wzorów dokumentacji (polityka AI, matryca oceny ryzyka, checklisty), które znacząco przyspieszają proces wdrożenia.
- Bezpieczna Innowacja: Zdolność do świadomego i bezpiecznego wdrażania narzędzi AI oraz korzystania z istniejących narzędzi AI, co przekłada się na przewagę konkurencyjną i zaufanie klientów, a także bezpieczeństwo obu stron.
Blok 1: Ramy prawne i strategiczne dla AI w biznesie
- Prezentacja: AI Act i RODO – nowa mapa regulacyjna dla Twojej firmy
- Piramida ryzyka wg AI Act: od praktyk zakazanych po systemy wysokiego ryzyka – co to oznacza dla Twoich procesów?
- Kluczowe obowiązki dla firm wynikające z AI ACT
- Zakazane praktyki AI i przykłady z biznesu
- RODO i AI: legalne przetwarzanie danych osobowych
- Kary
- Etyka w stosowaniu AI – omówienie wyzwań etycznych związanych z rozwojem i stosowaniem sztucznej inteligencji
- Przykłady zastosowań AI w firmie – etycznych, nieetycznych.
Blok 2: Identyfikacja i klasyfikacja systemów AI w organizacji
- Kryteria systemów wysokiego ryzyka (Załącznik III) – analiza przypadków (rekrutacja, scoring, biometria, infrastruktura krytyczna).
- Obowiązki związane z przejrzystością: oznaczanie treści syntetycznych i deepfake'ów (Art. 50). Przykłady deepfake’ów.
- Prawa autorskie i własność intelektualna w generowaniu treści razem z AI.
- Mini-warsztat: Praca na przykładach deepfake’ów, checklista legalnego contentu AI.
Blok 3: Obowiązki Podmiotu Stosującego i kluczowa rola Nadzoru Ludzkiego
- Checklista obowiązków podmiotu stosującego – od użycia zgodnego z instrukcją po monitorowanie i zgłaszanie incydentów.
- Nadzór ludzki (Art. 14) – jak zaprojektować skuteczny proces, by uniknąć "błędu automatyzacji" i zapewnić możliwość interwencji.
- Prawidłowe korzystanie z narzędzi AI: ChatGPT, Copilot, Gemini – co wolno, czego unikać,
- Co robić, gdy pracownik korzysta z AI bez wiedzy firmy i jak się zabezpieczyć przed roszczeniami?
- Mini-warsztat – inwentaryzacja narzędzi AI od kątem bezpiecznego korzystania i ryzyk. Praca z checklistą identyfikacyjną i rejestrem.
Blok 4: Podsumowanie i plan wdrożenia
- Elementy wewnętrznej polityki użytkowania AI.
- Sesja pytań i odpowiedzi.
Nie jest wymagane.
Język – polski
Materiały – polski