Baza wiedzy
1. Systemy AI o niedopuszczalnym ryzyku
Systemy, które są uznawane za szczególnie niebezpieczne dla ludzi i społeczeństwa, są całkowicie zakazane.
Obejmuje to:
- Systemy manipulacji behawioralnej, które mogą wpływać na podświadome wybory użytkowników.
- Technologie masowej inwigilacji w czasie rzeczywistym, np. systemy rozpoznawania twarzy w przestrzeni publicznej.
- Systemy oparte na chińskiej metodzie „punktacji społecznej”, które oceniają obywateli na podstawie ich zachowań.
2. Systemy AI o wysokim ryzyku
Systemy, które mają potencjalnie poważny wpływ na prawa podstawowe, zdrowie i bezpieczeństwo, muszą spełniać szczególne wymogi prawne. Obejmuje to:
- AI w systemach krytycznych, takich jak medycyna, transport, edukacja, egzekwowanie prawa i wymiar sprawiedliwości.
- Systemy, które decydują o dostępie do usług, np. systemy oceniające zdolność kredytową czy AI wykorzystywane w rekrutacji.
W przypadku tych systemów wymaga się:
- Oceny zgodności przed wdrożeniem: Przed wdrożeniem AI na rynek, muszą one przejść szczegółowe testy dotyczące bezpieczeństwa, dokładności oraz zgodności z przepisami ochrony danych.
- Nadzoru i monitoringu: Użytkowanie systemów o wysokim ryzyku podlega stałemu nadzorowi, a systemy te muszą być monitorowane pod kątem potencjalnych zagrożeń.
3. Systemy AI o ograniczonym ryzyku
Systemy te mogą generować pewne ryzyka, ale są one uważane za mniej istotne. W tym przypadku zaleca się przejrzystość działania:
- Systemy chatbotów i asystentów wirtualnych, które wchodzą w interakcje z użytkownikami, muszą jasno informować, że komunikacja odbywa się z AI.
- Wymagania dotyczące przejrzystości i prawidłowego informowania użytkowników.
4. Systemy AI o minimalnym lub nieistotnym ryzyku
Większość systemów AI w tej kategorii nie jest bezpośrednio regulowana przez AI Act. Przykłady to systemy rekomendacyjne w e-commerce lub filtry w mediach społecznościowych.
W kontekście sztucznej inteligencji (SI), Międzynarodowa Organizacja Normalizacyjna (ISO ) opracowała i wdraża szereg norm, które mają na celu ujednolicenie zasad związanych z projektowaniem, wdrażaniem i oceną systemów AI. Normy te mają wspierać firmy i organizacje w tworzeniu, ocenie oraz stosowaniu SI w sposób bezpieczny, przejrzysty i zgodny z regulacjami.
Oto najważniejsze normy ISO dotyczące sztucznej inteligencji:
1. ISO/IEC 22989 – Artificial Intelligence Concepts and Terminology
Zakres: Definiuje podstawowe pojęcia, terminologię oraz ramy teoretyczne dotyczące sztucznej inteligencji. Standard ten jest kluczowy dla zrozumienia i komunikacji na temat SI, szczególnie w projektach międzybranżowych i międzynarodowych.
Cel: Ułatwia spójną komunikację między różnymi interesariuszami, zapewniając jednolite rozumienie definicji i kluczowych pojęć związanych z AI.
2. ISO/IEC 23053 – Framework for Artificial Intelligence (AI) Systems Using Machine Learning
Zakres: Opracowuje ramy i wytyczne dla budowy systemów sztucznej inteligencji wykorzystujących uczenie maszynowe (ML). Opisuje podstawowe etapy projektowania, trenowania i wdrażania modeli uczenia maszynowego.
Cel: Pomaga organizacjom w stosowaniu sprawdzonych praktyk przy tworzeniu i wdrażaniu systemów ML, w szczególności w zakresie zarządzania danymi i ich przetwarzania.
3.ISO/IEC 23894 – Artificial Intelligence Risk Management
Zakres: Skupia się na zarządzaniu ryzykiem związanym z wdrażaniem i stosowaniem systemów AI. Opisuje procesy identyfikacji, oceny i łagodzenia ryzyka technologicznego, etycznego i prawnego w systemach sztucznej inteligencji.
Cel: Umożliwia organizacjom wdrażanie odpowiednich mechanizmów zarządzania ryzykiem, co jest kluczowe zwłaszcza w kontekście unijnych regulacji, takich jak AI Act.
4. ISO/IEC TR 24027 – Bias in AI Systems and AI-Aided Decision Making
Zakres: Ta norma opisuje metody identyfikacji, oceny i redukcji biasu (uprzedzeń) w systemach AI oraz decyzjach wspieranych przez sztuczną inteligencję. Wskazuje, jak monitorować i poprawiać algorytmy, aby zapewnić, że są one wolne od uprzedzeń technologicznych i nie prowadzą do dyskryminacji.
Cel: Zwiększa odpowiedzialność organizacji, pomagając im budować bardziej sprawiedliwe i przejrzyste systemy AI.
5. ISO/IEC 24029 – Assessment of the Robustness of Neural Networks
Zakres: Norma ta koncentruje się na metodach oceny odporności sieci neuronowych, w szczególności na ataki i nieprzewidywalne zachowania. Standard ten zapewnia narzędzia do testowania sieci neuronowych pod kątem ich odporności na zakłócenia i zmiany w danych.
Cel: Zapewnia wysoką jakość i stabilność działania sieci neuronowych w krytycznych zastosowaniach, takich jak systemy autonomiczne czy medycyna.
6. ISO/IEC TR 24028 – Overview of Trustworthiness in Artificial Intelligence
Zakres: Ten standard dostarcza wytycznych dotyczących budowania zaufania do systemów AI. Opisuje, jak projektować systemy AI, które są przejrzyste, odpowiedzialne i godne zaufania, zapewniając odpowiednie mechanizmy wyjaśniania decyzji podejmowanych przez AI.
Cel: Wspiera organizacje w budowaniu systemów, które zyskują zaufanie użytkowników i interesariuszy poprzez zapewnienie wyjaśnialności, odpowiedzialności i bezpieczeństwa.
7. ISO/IEC TR 24030 – Use Cases and Applications of AI
Zakres: Dostarcza przegląd różnych przypadków użycia sztucznej inteligencji oraz ich potencjalnych zastosowań w różnych sektorach gospodarki, takich jak przemysł, opieka zdrowotna, finanse czy transport.
Cel: Wspiera firmy i organizacje w ocenie, jak SI może być wdrożona w ich procesach, oraz jakie korzyści i wyzwania są związane z wdrażaniem systemów AI.
8.ISO/IEC JTC 1/SC 42 – Komitet ds. Sztucznej Inteligencji
Zakres: Jest to komitet techniczny wspólnej grupy ISO i IEC, który opracowuje szerokie wytyczne, standardy oraz regulacje dotyczące sztucznej inteligencji i pokrewnych technologii. Komitet skupia się na kluczowych aspektach, takich jak etyka, zaufanie, bezpieczeństwo, prywatność i interoperacyjność systemów AI.
Cel: Tworzenie międzynarodowych norm, które ułatwiają wdrażanie SI w sposób bezpieczny i zrównoważony.
9. ISO/IEC TR 24372 – Overview of Computational Approaches for AI Systems
Zakres: Norma ta koncentruje się na opisaniu różnych podejść obliczeniowych stosowanych w systemach AI, w tym algorytmów i metod wykorzystywanych w procesie uczenia maszynowego.
Cel: Pomaga w wyborze odpowiednich metod obliczeniowych, które będą najlepiej pasować do danego zastosowania systemu SI.
10.ISO/IEC 25012 – Data Quality Model
Zakres: Ta norma, choć nie specyficzna dla AI, dotyczy jakości danych, które są kluczowe w kontekście sztucznej inteligencji. Obejmuje wytyczne dotyczące jakości danych używanych do trenowania modeli AI, takich jak kompletność, poprawność, spójność i aktualność danych.
Cel: Zapewnia, że dane wykorzystywane przez algorytmy SI są odpowiednio przetworzone, zminimalizowane pod kątem błędów oraz są reprezentatywne dla problemu, co zapobiega technologicznej stronniczości (biasowi).