szkolenie on-line
SZKOLIMY JUŻ 32 LATA, ZAUFAŁO NAM PONAD 100 000 OSÓB

30
września
2024

SZTUCZNA INTELIGENCJA WG STANDARDÓW OCHRONY DANYCH OSOBOWYCH - co IOD wiedzieć powinien?

koordynator: Iwona Nowosielska

Wdrożenie narzędzi opartych o generatywną sztuczną inteligencję to korzyści i nowe horyzonty. Zaczynając od automatycznie generowanych treści, takie jak artykuły, opisy produktów, recenzje czy treści marketingowe, na tworzeniu symulacji ataków czy potencjalnych zagrożeń w celu lepszego zrozumienia i przeciwdziałania potencjalnym ryzykom bezpieczeństwa informacji kończąc.
Przy całej prostocie wykorzystania tych systemów przez “nietechnicznego” użytkownika końcowego, generatywna sztuczna inteligencja niesie ze sobą liczne ryzyka dla identyfikowalnych w tych systemach i dzięki tym systemom danych osobowych:

  • fałszywe treści, prowadzące do dezinformacji, oszustw lub naruszenia prywatności,
  • nieautoryzowane odtwarzanie danych wytrenowanych na danych osobowych, nawet jeśli nie były one bezpośrednio udostępniane,
  • deanonimizację danych, gdy zaawansowane modele generatywne mogą być w stanie "odgadnąć" brakujące lub ukryte informacje,
  • zmniejszenie skuteczności technik anonimizacji, gdy modele generatywne, mogą "uczyć się" z ukrytych wzorców w danych,
  • naruszenie praw autorskich i własności intelektualnej,
  • zwiększone ryzyko oszustw gdy modele używane są do tworzenia fałszywych dokumentów, wiadomości głosowych lub innych treści, które mogą być używane w celach oszustwa.

W trakcie szkolenia odpowiemy sobie na pytanie dot. kompetencji Inspektora Ochrony Danych wspierającego przedsiębiorców - dostawców jak i użytkowników systemów GenAI, uwzględniając przy tym obowiązki nałożone na tych przedsiębiorców przez RODO uwzględniając przy tym pozostałe otoczenie prawne w szczególności akt o sztucznej inteligencji, przepisy prawa z obszaru cyberbezpieczeństwa. Wskażemy sobie również źródła wiedzy i kanały jej aktualizacji pozwalające na katalogowanie ryzyk dla przetwarzania danych osobowych i praw i wolności osób których dane przetwarzane są w zbiorach danych treningowych, walidacyjnych czy nawet testowych.

Szkolenie przeprowadzi: Patrycja Żarska-Cynk

Czas trwania szkolenia: od godz. 9.30 do ok. 14.30

  1. Systemy sztucznej inteligencji (AI) - podstawowe pojęcia na styku regulacji prawnych:
    • ujęcie definicyjne sztucznej inteligencji, podstawowe koncepcje,
    • pojęcia zdefiniowane w akcie o sztucznej inteligencji i przepisach prawa z obszaru cyberbezpieczeństwa istotne dla przetwarzania danych osobowych.
  2. Akt o sztucznej inteligencji - rozporządzeniem w sprawie bezpieczeństwa danych produkcyjnych:
    • harmonogram wejścia w życie aktu o sztucznej inteligencji,
    • zakazy dotyczące systemów sztucznej inteligencji,
    • klasyfikacja systemów sztucznej inteligencji:
      • obowiązki dla systemów sztucznej inteligencji wysokiego ryzyka,
      • wymagania w zakresie przejrzystości dla pozostałych systemów.
  3. Inne przepisy prawa - krajobraz prawny w obszarze cyberbezpieczeństwa - środki bezpieczeństwa dla danych.
  4. RODO - rozporządzeniem w sprawie bezpieczeństwa danych osobowych:
    • określenie roli i obowiązków wydawców, dostawców i użytkowników systemów AI [administrator/współadministrator/podmiot przetwarzający],
    • opis celów przetwarzania, ocena zakresu danych niezbędnych oraz proporcjonalnych - dane agregowane i generowane przez AI,
    • zautomatyzowane indywidualne decyzje podejmowane przez sztuczną inteligencję,
    • ponowne przetwarzanie danych art. 59 AI act a art. 6 ust 4 RODO,
    • analiza ryzyka i ocena skutków dla przetwarzania danych,
    • realizacja praw osób.
  5. Narzędzia wsparcia wdrożenia systemów AI zgodnie z art. 5 ust 1 lit f art. 32 RODO:
    • zharmonizowane standardy: ISO/IEC 42001:2023, NIST AI 600-1
    • ,
    • wytyczne i wskazówki organów ochrony danych osobowych,
    • wewnętrzna polityka AI Administratora - przykładowa deklaracja stosowania AI, system wewnętrznych instrukcji i szkoleń.
  6. Odpowiedzialność za szkody dotyczące danych w akcie o sztucznej inteligencji oraz RODO.

Patrycja Żarska-Cynk

Absolwentka Studiów Podyplomowych w Instytucie Nauk Prawnych Polskiej Akademii Nauk, na kierunku Inspektor Ochrony Danych w sektorze prywatnym - edycja VII z wykształcenia mgr socjologii, Audytorka wiodąca Systemu Zarządzania Bezpieczeństwem Informacji zgodnego z ISO/IEC 27001 oraz audytorka wewnętrzna Systemu Zarządzania Ochroną Danych Osobowych opartego o wymagania normy ISO 27701. Dyrektorka ds. ochrony danych osobowych w ISSA Polska, zaangażowana min. w projektach Cyfrowy Skaut, issa.local , w Stowarzyszeniu SABI członek zespołu ds. analizy ryzyka przetwarzania danych osobowych, członkini Klubu Absolwentów INP PAN. W LexDigital Sp. z o.o. na stanowisku data protection expert odpowiada za tworzenie, wdrażanie i nadzór nad systemami ochrony danych osobowych klientów Spółki, pełni również funkcję Inspektora Ochrony Danych.