„Při nesprávném použití mohou technologie vést (a vedou) ke zhoršení kognitivních schopností, které by měly být zachovány. Jak poznamenal Bainbridge (ve článku Ironies of Automatization z roku 1983), hlavní ironie automatizace spočívá v tom, že mechanizací rutinních úkolů a ponecháním zpracování výjimek na lidském uživateli, zbavujete uživatele rutinní příležitosti procvičovat svůj úsudek a posilovat své kognitivní svalstvo, čímž se stává atrofovaným a nepřipraveným na moment, kdy se výjimky opravdu objeví,“ zní jedna z premis uvedená v úvodu práce.
Zatímco dřívější výzkumy dopadů nástrojů generativní umělé inteligence se týkaly především paměti a kreativity, nová studie společnosti Microsoft a Carnegie Mellon University (The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers – PDF v originále a plném znění zde) sledovala dopad na takzvané „kritické myšlení“.
Základem studie byl průzkum chování 319 znalostních pracovníků a analýza 936 příkladů konkrétního použití některého ze současných nástrojů generativní umělé inteligence.
„Data ukazují posun v kognitivním úsilí, protože znalostní pracovníci se při používání GenAI stále více přesouvají od provádění úkolů k dohledu nad jeho výsledkem,“ napsali výzkumníci. „Překvapivě, i když AI může zvýšit efektivitu, může také snížit kritické zapojení, zejména u rutinních nebo méně náročných úkolů, při kterých se uživatelé jednoduše spoléhají na AI. To vyvolává obavy z dlouhodobého spolehnutí se na tyto nástroje a snížení schopnosti samostatného řešení problémů,“ zní jeden ze závěrů studie.
Zároveň se ukázalo, že skupina uživatelů využívající nástroje generativní umělé inteligence vytvářejí pro stejný úkol mnohem méně různorodé výsledky, než uživatelé bez přístupu k těmto nástrojům. „To odráží nedostatek osobního, kontextuálního, kritického a reflexivního posuzování výstupů – a lze ji tedy interpretovat jako zhoršení kritického myšlení,“ tvrdí autoři studie.
Výzkum zjistil, že pracovníci, kteří si jsou při řešení úkolu jisti (vědí že mají schopnost úkol vyřešit), s větší pravděpodobností použijí kritické myšlení na ověření kvality výstupů použité AI služby. Své schopnosti využijí pro ověření jeho správnosti a případně jeho vylepšení nebo rozšíření. Oproti tomu ti, kteří si řešením daného úkolu nejsou tolik jistí, často prostě jen předpokládají, že generativní AI vytvořila adekvátní odpovědi, a neobtěžují se přemýšlet o jejich správnosti a kvalitě výstupu. Své schopnosti tedy při plnění úkolu nevyužijí.
Z výzkumu také vyplynulo, že těm, co mají důvěru v systémy generativní AI, potřeba použít kritické myšlení klesá. A ti, kteří věří především ve své schopnosti, mají tendenci věnovat zkoumání odpovědí AI modelů mnohem více pozornosti.
Podle autorů studie nemají její závěry volat po omezování využívání AI nástrojů, ale po vylepšení nástrojů v interakci s uživatelem – uživatel by měl být podporován v tom, aby na výstup AI nástroje pohlížel kritickým myšlením, aby měl snahu vylepšovat a optimalizovat jejich výstup – aby jej nebral jako hotovou věc, ale jako základ pro svoji další práci. Nástroje mají uživatelům pomoci s rozpoznáním spolehlivosti řešení daného úkolu a nabídnout ovládací prvky, které jim umožní regulovat míru AI asistence podle právě řešeného úkolu.