Umelá inteligencia sa často považuje za chladný a logický nástroj, ktorý dokáže rozhodovať bez emócií a iracionálnych sklonov. Ale čo ak najnovšie AI systémy, ako napríklad ChatGPT, kopírujú aj naše mentálne skratky a chyby v uvažovaní? Nedávna štúdia z Manufacturing & Service Operations Management naznačuje, že práve to sa deje.
Vedci zistili, že pri určitých rozhodnutiach jazykové modely ako ChatGPT vykazujú rovnaké kognitívne skreslenia ako ľudia. Tieto skreslenia, napríklad hráčsky omyl, averzia k riziku alebo efekt rámcovania, sa bežne objavujú pri ľudskom rozhodovaní – často vplyvom emócií alebo skrytých predpokladov. U AI však ich prítomnosť vyvoláva otázku: Sú tieto systémy naozaj „neutrálne“, alebo len kopírujú chyby našich myšlienkových vzorcov?
Keď AI nie je taká objektívna, ako sa zdá
Vedci analyzovali odpovede AI na sériu scenárov určených na testovanie racionálneho myslenia. Zistili, že ChatGPT:
v 49 % prípadov podľahol rovnakým skresleniam ako ľudia,
mal problémy s rozhodnutiami, kde neexistovala jednoznačná správna odpoveď,
a v niektorých prípadoch vykazoval nadmernú sebadôveru vo vlastné nesprávne odpovede.
Zaujímavé je, že keď výskumníci explicitne požiadali model o „racionálne“ rozhodnutie, výsledky sa zlepšili – čo naznačuje, že AI dokáže tieto skreslenia do určitej miery prekonať, ak je správne usmerňovaná.
Prečo je to problém?
V praxi sa tieto poznatky môžu prejaviť v rôznych oblastiach: od prijímania zamestnancov, cez schvaľovanie úverov, až po analýzu právnych alebo zdravotných dát. Ak AI systém automatizuje rozhodnutia, ktoré sú založené na skreslených údajoch alebo nepresných vzorcoch, môže:
replikovať diskrimináciu,
uprednostňovať nesprávne riešenia,
alebo dokonca zdôvodniť nesprávne rozhodnutie „logicky“, čo ešte sťažuje jeho identifikáciu.
AI tak môže fungovať ako zrkadlo spoločnosti, ale nie vždy zrkadlí to najlepšie.
Môžeme tomu zabrániť?
Áno – ale iba vtedy, ak si budeme vedomí rizík. Odborníci odporúčajú:
zavádzať auditovanie AI rozhodnutí, podobne ako kontrolujeme rozhodnutia ľudí,
zabezpečiť transparentnosť algoritmov, aby bolo jasné, na základe čoho AI rozhodla,
kombinovať AI s ľudským dohľadom, najmä v oblastiach s veľkým etickým alebo spoločenským dopadom.
Zároveň je dôležité, aby vývojári trénovali AI na diverzifikovaných dátach, ktoré zahŕňajú rôzne uhly pohľadu a neobsahujú nevedomé predsudky.
AI ako partner, nie sudca
Je lákavé nechať rozhodovanie na stroje, ktoré nepoznajú únavu, stres či osobné preferencie. No ak tieto stroje preberajú aj naše myšlienkové skratky, musíme sa pýtať: Chceme, aby nás hodnotila inteligencia, ktorá myslí ako človek — ale bez schopnosti pochopiť dôsledky?
Budúcnosť AI nie je len o výpočtoch a algoritmoch. Je o zodpovednosti a kritickom myslení. Pretože kým sa naučíme správne využívať umelú inteligenciu, musíme si najprv priznať, ako veľmi je dnes podobná nám – so všetkými našimi chybami.
Myslí AI ako človek? Nová štúdia ukazuje, že niekedy až príliš
Umelá inteligencia sa často považuje za chladný a logický nástroj, ktorý dokáže rozhodovať bez emócií a iracionálnych sklonov. Ale čo ak najnovšie AI systémy, ako napríklad ChatGPT, kopírujú aj naše mentálne skratky a chyby v uvažovaní? Nedávna štúdia z Manufacturing & Service Operations Management naznačuje, že práve to sa deje.
Vedci zistili, že pri určitých rozhodnutiach jazykové modely ako ChatGPT vykazujú rovnaké kognitívne skreslenia ako ľudia. Tieto skreslenia, napríklad hráčsky omyl, averzia k riziku alebo efekt rámcovania, sa bežne objavujú pri ľudskom rozhodovaní – často vplyvom emócií alebo skrytých predpokladov. U AI však ich prítomnosť vyvoláva otázku: Sú tieto systémy naozaj „neutrálne“, alebo len kopírujú chyby našich myšlienkových vzorcov?
Keď AI nie je taká objektívna, ako sa zdá
Vedci analyzovali odpovede AI na sériu scenárov určených na testovanie racionálneho myslenia. Zistili, že ChatGPT:
Zaujímavé je, že keď výskumníci explicitne požiadali model o „racionálne“ rozhodnutie, výsledky sa zlepšili – čo naznačuje, že AI dokáže tieto skreslenia do určitej miery prekonať, ak je správne usmerňovaná.
Prečo je to problém?
V praxi sa tieto poznatky môžu prejaviť v rôznych oblastiach: od prijímania zamestnancov, cez schvaľovanie úverov, až po analýzu právnych alebo zdravotných dát. Ak AI systém automatizuje rozhodnutia, ktoré sú založené na skreslených údajoch alebo nepresných vzorcoch, môže:
AI tak môže fungovať ako zrkadlo spoločnosti, ale nie vždy zrkadlí to najlepšie.
Môžeme tomu zabrániť?
Áno – ale iba vtedy, ak si budeme vedomí rizík. Odborníci odporúčajú:
Zároveň je dôležité, aby vývojári trénovali AI na diverzifikovaných dátach, ktoré zahŕňajú rôzne uhly pohľadu a neobsahujú nevedomé predsudky.
AI ako partner, nie sudca
Je lákavé nechať rozhodovanie na stroje, ktoré nepoznajú únavu, stres či osobné preferencie. No ak tieto stroje preberajú aj naše myšlienkové skratky, musíme sa pýtať: Chceme, aby nás hodnotila inteligencia, ktorá myslí ako človek — ale bez schopnosti pochopiť dôsledky?
Budúcnosť AI nie je len o výpočtoch a algoritmoch. Je o zodpovednosti a kritickom myslení. Pretože kým sa naučíme správne využívať umelú inteligenciu, musíme si najprv priznať, ako veľmi je dnes podobná nám – so všetkými našimi chybami.
AI newsletter
Naše AI kurzy
Umelá inteligencia so 136 IQ? Realita, ktorá nás nemôže nechať chladnými
24/04/2025Čo je to prompt a prečo hrá kľúčovú rolu v umelej inteligencii?
24/04/2025Ako umelá inteligencia mení školstvo na Slovensku aj vo svete
24/04/2025