Členské štáty EÚ musia do 2. augusta 2025 určiť príslušné vnútroštátne orgány, ktoré budú dohliadať na uplatňovanie pravidiel pre systémy umelej inteligencie a vykonávať činnosti dohľadu nad trhom.
Autor TASR
Brusel 1 augusta (TASR) - Európska komisia (EK) vo štvrtok pripomenula, že od 1. augusta nadobúda účinnosť európsky zákon o umelej inteligencii, prvý svojho druhu na svete. Informuje o tom spravodajca TASR.
Zákon je navrhnutý tak, aby zabezpečil dôveryhodnosť umelej inteligencie vyvinutej a používanej v EÚ so zárukami na ochranu základných práv ľudí. Cieľom je vytvoriť harmonizovaný vnútorný trh s umelou inteligenciou v EÚ, podporiť zavádzanie tejto technológie a vytvoriť priaznivé prostredie pre inovácie a investície.
Táto legislatíva zahŕňa pokrokovú definíciu umelej inteligencie založenú na prístupe orientovanom na bezpečnosť výrobkov a riziko v EÚ.
Do kategórie minimálneho rizika patrí väčšina systémov umelej inteligencie. Osobitné riziko transparentnosti znamená, že systémy ako chatboty musia používateľom jasne oznámiť, že (používatelia) komunikujú so strojom. Obsah vytvorený umelou inteligenciou vrátane tzv. deepfakes musí byť takto označený a používatelia musia byť informovaní o používaní systémov biometrickej kategorizácie alebo rozpoznávania emócií.
Systémy umelej inteligencie identifikované ako vysokorizikové budú musieť spĺňať prísne požiadavky. Vzťahuje sa to na systémy na zmiernenie rizika, vysokú kvalitu súborov údajov, záznamy o činnosti, podrobnú dokumentáciu, jasnú informácie pre používateľov, ľudský dohľad a vysokú úroveň spoľahlivosti, presnosti a kybernetickej bezpečnosti.
Neprijateľné riziko znamená, že ide o systémy umelej inteligencie považované za jasnú hrozbu pre základné práva ľudí. Takéto systémy sú zakázané. Ide o systémy alebo aplikácie umelej inteligencie, ktoré manipulujú ľudské správanie s cieľom obísť slobodnú vôľu používateľov. Zakázané sú aj niektoré použitia biometrických systémov, napríklad systémy rozpoznávania emócií používané na pracoviskách a niektoré systémy kategorizácie ľudí alebo biometrická identifikácia na diaľku v reálnom čase na účely presadzovania práva vo verejnom priestore.
Na doplnenie tohto systému sa v zákone o umelej inteligencii zavádzajú aj pravidlá pre tzv. modely umelej inteligencie na všeobecné účely. Napríklad modely umelej inteligencie navrhnuté tak, aby vykonávali širokú škálu úloh, ako je vytváranie textu podobného človeku.
Komisia pripomenula, že zákon o umelej inteligencii zabezpečí transparentnosť v celom hodnotovom reťazci a bude riešiť možné systémové riziká najschopnejších modelov.
Členské štáty EÚ musia do 2. augusta 2025 určiť príslušné vnútroštátne orgány, ktoré budú dohliadať na uplatňovanie pravidiel pre systémy umelej inteligencie a vykonávať činnosti dohľadu nad trhom.
Úrad EK pre umelú inteligenciu bude kľúčovým orgánom na zavedenie zákona do platnosti na úrovni EÚ, ako aj orgánom presadzovania pravidiel pre modely umelej inteligencie na všeobecné účely. Spoločnosti, ktoré nebudú dodržiavať pravidlá, môžu byť pokutované.
(spravodajca TASR Jaromír Novak)
Zákon je navrhnutý tak, aby zabezpečil dôveryhodnosť umelej inteligencie vyvinutej a používanej v EÚ so zárukami na ochranu základných práv ľudí. Cieľom je vytvoriť harmonizovaný vnútorný trh s umelou inteligenciou v EÚ, podporiť zavádzanie tejto technológie a vytvoriť priaznivé prostredie pre inovácie a investície.
Táto legislatíva zahŕňa pokrokovú definíciu umelej inteligencie založenú na prístupe orientovanom na bezpečnosť výrobkov a riziko v EÚ.
Do kategórie minimálneho rizika patrí väčšina systémov umelej inteligencie. Osobitné riziko transparentnosti znamená, že systémy ako chatboty musia používateľom jasne oznámiť, že (používatelia) komunikujú so strojom. Obsah vytvorený umelou inteligenciou vrátane tzv. deepfakes musí byť takto označený a používatelia musia byť informovaní o používaní systémov biometrickej kategorizácie alebo rozpoznávania emócií.
Systémy umelej inteligencie identifikované ako vysokorizikové budú musieť spĺňať prísne požiadavky. Vzťahuje sa to na systémy na zmiernenie rizika, vysokú kvalitu súborov údajov, záznamy o činnosti, podrobnú dokumentáciu, jasnú informácie pre používateľov, ľudský dohľad a vysokú úroveň spoľahlivosti, presnosti a kybernetickej bezpečnosti.
Neprijateľné riziko znamená, že ide o systémy umelej inteligencie považované za jasnú hrozbu pre základné práva ľudí. Takéto systémy sú zakázané. Ide o systémy alebo aplikácie umelej inteligencie, ktoré manipulujú ľudské správanie s cieľom obísť slobodnú vôľu používateľov. Zakázané sú aj niektoré použitia biometrických systémov, napríklad systémy rozpoznávania emócií používané na pracoviskách a niektoré systémy kategorizácie ľudí alebo biometrická identifikácia na diaľku v reálnom čase na účely presadzovania práva vo verejnom priestore.
Na doplnenie tohto systému sa v zákone o umelej inteligencii zavádzajú aj pravidlá pre tzv. modely umelej inteligencie na všeobecné účely. Napríklad modely umelej inteligencie navrhnuté tak, aby vykonávali širokú škálu úloh, ako je vytváranie textu podobného človeku.
Komisia pripomenula, že zákon o umelej inteligencii zabezpečí transparentnosť v celom hodnotovom reťazci a bude riešiť možné systémové riziká najschopnejších modelov.
Členské štáty EÚ musia do 2. augusta 2025 určiť príslušné vnútroštátne orgány, ktoré budú dohliadať na uplatňovanie pravidiel pre systémy umelej inteligencie a vykonávať činnosti dohľadu nad trhom.
Úrad EK pre umelú inteligenciu bude kľúčovým orgánom na zavedenie zákona do platnosti na úrovni EÚ, ako aj orgánom presadzovania pravidiel pre modely umelej inteligencie na všeobecné účely. Spoločnosti, ktoré nebudú dodržiavať pravidlá, môžu byť pokutované.
(spravodajca TASR Jaromír Novak)