Umělá inteligence se stává běžným nástrojem v pracovním prostředí. A zatímco se většina firem shodne na tom, že zvyšuje efektivitu práce, experti varují, že jejím nadměrným využíváním se může oslabit schopnost samostatného a kritického myšlení samotných zaměstnanců.
Nedávná studie Carnegie Mellon University a Microsoftu například zkoumala tři stovky lidí, kteří pracují s daty a zjistila, že čím více se ve svých činnostech spoléhali na AI, tím méně používali vlastní úsudek.
Ukázalo se, že lidé se začínají na umělou inteligenci spoléhat místo toho, aby kriticky přemýšleli o tom, co tyto nástroje vytvářejí. Mnozí účastníci dokonce přehlíželi chyby v odpovědích generovaných AI.
Naopak ti uživatelé, kteří měli menší důvěru ve výstupy AI, více používali kritické myšlení a měli větší důvěru ve vlastní schopnost vyřešit problém i napravit nedostatečnou kvalitu výstupu AI.
Podobné závěry přitom přinášejí i další výzkumy. Například studie publikovaná na arXiv.org ukazuje, že generativní AI může vést k degradaci kritického myšlení v pracovních procesech, pokud uživatelé nekontrolují výstupy AI a nekriticky je přijímají.
Studie Michaela Gerlicha ze Swiss Business School zase ukázala, že lidé do 25 lety vykazovali vyšší závislost na nástrojích AI a zároveň projevovali méně kritického myšlení ve srovnání se staršími věkovými skupinami.
Jak uvádí web České televize, vyšší dosažené vzdělání podle Gerlicha pozitivně korelovalo se schopnostmi kritického myšlení, což naznačuje, že kvalitní vzdělání zmírňuje některé negativní kognitivní dopady práce s AI.
Odborníci proto navrhují, aby se pro umělou inteligenci vytvářela taková uživatelská rozhraní, která budou zároveň podporovat i kritické myšlení pracovníků a zachovají vysokou úroveň jejich kognitivních schopností.
Potvrzuje i Marek Urban z Psychologického ústavu AV ČR v rozhovoru, v němž upozorňuje, že pro efektivní práci s AI je kritické myšlení nezbytné.
Jeho výzkum ukázal, že ChatGPT dokáže pomoci studentům s horšími vzdělávacími výsledky, avšak u studentů, kteří měli i bez pomoci umělé inteligence dobré výsledky, ChatGPT jejich výsledky nevylepšil (ale ušetřil jim například čas).
Uživatelé by podle Urbana měli být schopni analyzovat a ověřovat informace generované AI, aby předešli šíření dezinformací.
Ke spolehlivé práci s informacemi, které vytvoří AI, potřebujete mít podrobné vědomosti o daném problému, jinak nepoznáte, když vám umělá inteligence lže, dodává Urban.
Experti na vzdělávání pak navíc zdůrazňují, že je nutné studenty učit analyzovat argumenty a ověřovat pravdivost informací, které jim AI poskytuje.
Bez těchto dovedností hrozí, že studenti budou jen pasivně přijímat informace bez hlubšího porozumění, což se v budoucnu společnosti vymstí
Myšlenka, že technologie negativně ovlivní myšlení lidí, se objevuje dlouhodobě – počínaje psaným textem už ve starověku přes rozvoj kalkulaček v druhé polovině minulého století až po vzestup automatizačních technik či internetového vyhledávání.
Tentokrát však jde o mnohem hlubší problém a je nezbytné najít rovnováhu mezi využíváním těchto AI nástrojů a dlouhodobým zachováním kognitivních schopností jejich uživatelů.




Napsat komentář