W tym tygodniu w Parlamencie Europejskim przyjęto wniosek w sprawie takiego regulowania sztucznej inteligencji (AI), aby pobudzić innowacje, chronić normy etyczne oraz budować zaufanie do technologii.
Najważniejsze założenie to:
- Równowaga pomiędzy ochroną obywateli a wspieraniem rozwoju technologii,
- Ukierunkowany na przyszłe wyzwania system odpowiedzialności cywilnej chroniący osoby prywatne i przedsiębiorstwa,
- Skuteczny system ochrony własności intelektualnej oraz zabezpieczenia dla twórców nowych technologii.
Europarlament to jedna z pierwszych instytucji, która wysunęła zalecenia do treści przepisów dotyczących sztucznej inteligencji.
Nowe ramy prawnych powinny zawierać zasady etyczne i zobowiązania prawne, jakie miałyby przyświecać opracowywaniu, wdrażaniu i stosowaniu SI, robotyki oraz powiązanych technologii w UE, w tym oprogramowania, algorytmów i danych.
Technologie AI wysokiego ryzyka, takie jak technologie samouczące się, powinny być projektowane w ten sposób, aby przez cały czas nadzór nad nimi mógł sprawować człowiek. Jeżeli technologie te zawierają funkcje, które mogą spowodować poważne naruszenie zasad etycznych i stanowić zagrożenie, zdolności do samouczenia się powinny zostać zablokowane, a kontrolę nad tymi funkcjami powinien w pełni przejąć człowiek.
W inicjatywie ustawodawczej PE wezwano do utworzenia przyszłościowych ram odpowiedzialności cywilnej, zgodnie z którymi operatorzy technologii AI wysokiego ryzyka byliby w pełni odpowiedzialni za wyrządzane przez nie szkody.