Quantcast
Spravodajský portál Tlačovej agentúry Slovenskej republiky
Streda 26. jún 2024Meniny má Adriána
< sekcia Zahraničie

ŠTÚDIA: Umelá inteligencia si podľa filozofov vymýšľa hlúposti

Ilustračná snímka. Foto: TASR/AP

Závery štúdie sú zaujímavé najmä v súvislosti s informáciami o absurdných a nebezpečných radách umelej inteligencie spoločnosti Google, ktoré sa objavili počas uplynulých týždňov.

Ak si želáte, aby počítač prečítal text článku, použite prehrávač nižšie.
00:00 / 00:00
Glasgow 18. júna (TASR) – Umelá inteligencia nehalucinuje, ale vymýšľa si hlúposti, uvádza nová filozofická štúdia zo Škótska. TASR informuje na základe správy portálu Futurism.com.

Štúdiu trojice filozofov z Glasgowskej univerzity začiatkom júna zverejnil odborný žurnál Ethics and Information Technology. Filozofi sa v nej venovali nezmyslom vytvoreným nástrojom ChatGPT, ktoré v niektorých prípadoch dostali metaforickú nálepku "halucinácia".

Nezmysly vytvorené umelou inteligenciou (AI) by sa však podľa filozofov nemali označovať metaforicky, ale pravým menom – hovadina (anglicky "bullshit"). Trvajú na tom, že AI nemôže halucinovať, pretože halucinácia je prelud založený na klame zmyslov, teda niečoho, čo umelá inteligencia ako softvér nemá.

"Stroje sa nesnažia odovzdať informáciu o niečom, čomu veria alebo čo vnímajú. Nepresnosti nevznikajú z dôvodu nesprávnej interpretácie alebo halucinácie. Ako sme (v štúdii) uviedli, vôbec sa nesnažia odovzdať nejakú informáciu. Vymýšľajú si hovadiny," uvádza štúdia.

Filozofi vychádzajú z koncepcie Harryho Frankfurta, ktorý hovadinu definoval vo svojom epistemologickom diele "On Bullshit" (O hovadinách) z roku 2005 ako "ľubovoľný výrok, pri ktorom autorovi nezáleží na výroku samotnom ani na jeho pravdivosti".

Frankfurt hovadiny rozdeľuje ešte na dva poddruhy – "zámerné hovadiny" vytvorené s nejakým postranným úmyslom a "nezámerné hovadiny" vytvorené bez postranného úmyslu. Autori štúdie tvrdia, že ChatGPT vytvára prinajlepšom nezámerné hlúposti, pretože sa nesnaží zavádzať používateľov, ale vytvoriť prirodzene znejúci text.

Závery štúdie sú zaujímavé najmä v súvislosti s informáciami o absurdných a nebezpečných radách umelej inteligencie spoločnosti Google, ktoré sa objavili počas uplynulých týždňov. Tá radila používateľom, aby jedli kamene, ochutili si pizzu netoxickým lepidlom alebo aby depresiu liečili skokom z mosta. Spoločnosť Google a jej umelá inteligencia sa na sociálnych sieťach stala terčom mohutnej vlny posmechu a kritiky. Spoločnosť však kritizované výstupy podľa televízie BBC označila za ojedinelé zlyhania a trvá na tom, že drvivá väčšina výstupov jej AI je kvalitná.