Baza wiedzy
1. Systemy AI o niedopuszczalnym ryzyku
Systemy, które są uznawane za szczególnie niebezpieczne dla ludzi i społeczeństwa, są całkowicie zakazane.
Obejmuje to:
- Systemy manipulacji behawioralnej, które mogą wpływać na podświadome wybory użytkowników.
- Technologie masowej inwigilacji w czasie rzeczywistym, np. systemy rozpoznawania twarzy w przestrzeni publicznej.
- Systemy oparte na chińskiej metodzie „punktacji społecznej”, które oceniają obywateli na podstawie ich zachowań.
2. Systemy AI o wysokim ryzyku
Systemy, które mają potencjalnie poważny wpływ na prawa podstawowe, zdrowie i bezpieczeństwo, muszą spełniać szczególne wymogi prawne. Obejmuje to:
- AI w systemach krytycznych, takich jak medycyna, transport, edukacja, egzekwowanie prawa i wymiar sprawiedliwości.
- Systemy, które decydują o dostępie do usług, np. systemy oceniające zdolność kredytową czy AI wykorzystywane w rekrutacji.
W przypadku tych systemów wymaga się:
- Oceny zgodności przed wdrożeniem: Przed wdrożeniem AI na rynek, muszą one przejść szczegółowe testy dotyczące bezpieczeństwa, dokładności oraz zgodności z przepisami ochrony danych.
- Nadzoru i monitoringu: Użytkowanie systemów o wysokim ryzyku podlega stałemu nadzorowi, a systemy te muszą być monitorowane pod kątem potencjalnych zagrożeń.
3. Systemy AI o ograniczonym ryzyku
Systemy te mogą generować pewne ryzyka, ale są one uważane za mniej istotne. W tym przypadku zaleca się przejrzystość działania:
- Systemy chatbotów i asystentów wirtualnych, które wchodzą w interakcje z użytkownikami, muszą jasno informować, że komunikacja odbywa się z AI.
- Wymagania dotyczące przejrzystości i prawidłowego informowania użytkowników.
4. Systemy AI o minimalnym lub nieistotnym ryzyku
Większość systemów AI w tej kategorii nie jest bezpośrednio regulowana przez AI Act. Przykłady to systemy rekomendacyjne w e-commerce lub filtry w mediach społecznościowych.
W kontekście sztucznej inteligencji (SI), Międzynarodowa Organizacja Normalizacyjna (ISO ) opracowała i wdraża szereg norm, które mają na celu ujednolicenie zasad związanych z projektowaniem, wdrażaniem i oceną systemów AI. Normy te mają wspierać firmy i organizacje w tworzeniu, ocenie oraz stosowaniu SI w sposób bezpieczny, przejrzysty i zgodny z regulacjami.
Oto najważniejsze normy ISO dotyczące sztucznej inteligencji:
1. ISO/IEC 22989 – Artificial Intelligence Concepts and Terminology
Zakres: Definiuje podstawowe pojęcia, terminologię oraz ramy teoretyczne dotyczące sztucznej inteligencji. Standard ten jest kluczowy dla zrozumienia i komunikacji na temat SI, szczególnie w projektach międzybranżowych i międzynarodowych.
Cel: Ułatwia spójną komunikację między różnymi interesariuszami, zapewniając jednolite rozumienie definicji i kluczowych pojęć związanych z AI.
2. ISO/IEC 23053 – Framework for Artificial Intelligence (AI) Systems Using Machine Learning
Zakres: Opracowuje ramy i wytyczne dla budowy systemów sztucznej inteligencji wykorzystujących uczenie maszynowe (ML). Opisuje podstawowe etapy projektowania, trenowania i wdrażania modeli uczenia maszynowego.
Cel: Pomaga organizacjom w stosowaniu sprawdzonych praktyk przy tworzeniu i wdrażaniu systemów ML, w szczególności w zakresie zarządzania danymi i ich przetwarzania.
3.ISO/IEC 23894 – Artificial Intelligence Risk Management
Zakres: Skupia się na zarządzaniu ryzykiem związanym z wdrażaniem i stosowaniem systemów AI. Opisuje procesy identyfikacji, oceny i łagodzenia ryzyka technologicznego, etycznego i prawnego w systemach sztucznej inteligencji.
Cel: Umożliwia organizacjom wdrażanie odpowiednich mechanizmów zarządzania ryzykiem, co jest kluczowe zwłaszcza w kontekście unijnych regulacji, takich jak AI Act.
4. ISO/IEC TR 24027 – Bias in AI Systems and AI-Aided Decision Making
Zakres: Ta norma opisuje metody identyfikacji, oceny i redukcji biasu (uprzedzeń) w systemach AI oraz decyzjach wspieranych przez sztuczną inteligencję. Wskazuje, jak monitorować i poprawiać algorytmy, aby zapewnić, że są one wolne od uprzedzeń technologicznych i nie prowadzą do dyskryminacji.
Cel: Zwiększa odpowiedzialność organizacji, pomagając im budować bardziej sprawiedliwe i przejrzyste systemy AI.
5. ISO/IEC 24029 – Assessment of the Robustness of Neural Networks
Zakres: Norma ta koncentruje się na metodach oceny odporności sieci neuronowych, w szczególności na ataki i nieprzewidywalne zachowania. Standard ten zapewnia narzędzia do testowania sieci neuronowych pod kątem ich odporności na zakłócenia i zmiany w danych.
Cel: Zapewnia wysoką jakość i stabilność działania sieci neuronowych w krytycznych zastosowaniach, takich jak systemy autonomiczne czy medycyna.
6. ISO/IEC TR 24028 – Overview of Trustworthiness in Artificial Intelligence
Zakres: Ten standard dostarcza wytycznych dotyczących budowania zaufania do systemów AI. Opisuje, jak projektować systemy AI, które są przejrzyste, odpowiedzialne i godne zaufania, zapewniając odpowiednie mechanizmy wyjaśniania decyzji podejmowanych przez AI.
Cel: Wspiera organizacje w budowaniu systemów, które zyskują zaufanie użytkowników i interesariuszy poprzez zapewnienie wyjaśnialności, odpowiedzialności i bezpieczeństwa.
7. ISO/IEC TR 24030 – Use Cases and Applications of AI
Zakres: Dostarcza przegląd różnych przypadków użycia sztucznej inteligencji oraz ich potencjalnych zastosowań w różnych sektorach gospodarki, takich jak przemysł, opieka zdrowotna, finanse czy transport.
Cel: Wspiera firmy i organizacje w ocenie, jak SI może być wdrożona w ich procesach, oraz jakie korzyści i wyzwania są związane z wdrażaniem systemów AI.
8.ISO/IEC JTC 1/SC 42 – Komitet ds. Sztucznej Inteligencji
Zakres: Jest to komitet techniczny wspólnej grupy ISO i IEC, który opracowuje szerokie wytyczne, standardy oraz regulacje dotyczące sztucznej inteligencji i pokrewnych technologii. Komitet skupia się na kluczowych aspektach, takich jak etyka, zaufanie, bezpieczeństwo, prywatność i interoperacyjność systemów AI.
Cel: Tworzenie międzynarodowych norm, które ułatwiają wdrażanie SI w sposób bezpieczny i zrównoważony.
9. ISO/IEC TR 24372 – Overview of Computational Approaches for AI Systems
Zakres: Norma ta koncentruje się na opisaniu różnych podejść obliczeniowych stosowanych w systemach AI, w tym algorytmów i metod wykorzystywanych w procesie uczenia maszynowego.
Cel: Pomaga w wyborze odpowiednich metod obliczeniowych, które będą najlepiej pasować do danego zastosowania systemu SI.
10.ISO/IEC 25012 – Data Quality Model
Zakres: Ta norma, choć nie specyficzna dla AI, dotyczy jakości danych, które są kluczowe w kontekście sztucznej inteligencji. Obejmuje wytyczne dotyczące jakości danych używanych do trenowania modeli AI, takich jak kompletność, poprawność, spójność i aktualność danych.
Cel: Zapewnia, że dane wykorzystywane przez algorytmy SI są odpowiednio przetworzone, zminimalizowane pod kątem błędów oraz są reprezentatywne dla problemu, co zapobiega technologicznej stronniczości (biasowi).
Strategia transformacji cyfrowej wykorzystująca AI musi dziś redefiniować samo pojęcie siły roboczej.
Dzięki agentom AI organizacje mogą skalować siłę roboczą nie poprzez zatrudnianie ludzi, lecz poprzez zwiększanie dostępnych zasobów obliczeniowych oraz sposobu w jakim będzie wykorzystane AI.
Oznacza to stopniowe wyeliminowanie biologicznych ograniczeń pracy, takich jak czas, zmęczenie czy dostępność specjalistów. Praca przestaje być wyłącznie zasobem ludzkim, a staje się hybrydą ludzi, agentów AI i technologii.
W tym modelu kluczowe znaczenie mają kompetencje wsparte AI, czyli umiejętność osiągania ponadprzeciętnej produktywności dzięki współpracy z agentami.
Człowiek koncentruje się na celach, kontekście i odpowiedzialności, a AI realizuje zadania operacyjne, analityczne i powtarzalne. Umiejętność kooperacji człowieka z AI staje się jedną z najważniejszych kompetencji przyszłości. To ona decyduje o realnej wartości inwestycji w sztuczną inteligencję.
Fundamentalnej zmianie ulega rola działu HR. HR przestaje być wyłącznie działem rekrutacji i administracji kadrowej, a staje się architektem hybrydowej siły roboczej. Oznacza to, że HRnie tylko poszukuje pracowników, ale również „dobiera” agentów AI do realizacji konkretnych zadań i procesów. Pojawia się nowa funkcja projektowania ról, w których człowiek i agent wspólnie realizują cele biznesowe.
Strategia transformacji cyfrowej musi więc uwzględniać modyfikację kluczowych procesów HR. Dotyczy to rekrutacji, rozwoju kompetencji, oceny pracy oraz planowania zasobów. HRodpowiada za reskilling i upskilling pracowników, aby potrafili efektywnie pracować z AI. Jednocześnie musi zarządzać cyklem życia agentów AI – od wyboru, przez wdrożenie, po optymalizację ich pracy.
Zmianie muszą ulec także KPI mierzące produktywność. Zamiast liczyć wyłącznie liczbę etatów czy przepracowanych godzin, organizacje powinny mierzyć efekty pracy zespołów hybrydowych. Kluczowe stają się wskaźniki takie jak produktywność na proces, czas realizacji zadań, jakość decyzji czy skalowalność operacyjna. Firmy, które uwzględnią te zmiany w strategii transformacji cyfrowej, będą w stanie rosnąć mimo barier demograficznych. AI staje się w tym ujęciu nie tylko technologią, ale nowym fundamentem zarządzania pracą i rozwojem organizacji.