Mají omezit rizika spojená s umělou inteligencí a zároveň tak zvýšit její důvěryhodnost. Pravidla navrhují zakázat mimo jiné vysoce rizikové systémy, jako jsou například žebříčky sociálního hodnocení, nebo mluvící hračky nabádající k nebezpečnému chování. U rizikových systémů navržená pravidla stanovují přísné požadavky pro jejich využívání; jde zejména o systémy pro biometrickou identifikaci, kritickou infrastrukturu nebo programy používané k vyhodnocování testů, zkoušek či úvěrů. Cílem je, aby v Evropě platily nejvyšší světové standardy. Více
|