25 rokov Wikipédie: prečo je ľudský editor vzácnejší než najvýkonnejší algoritmus
Wikipédia ako jeden z najdôležitejších pilierov moderného internetu oslavuje 25 rokov existencie. Web Wikipédia. Zdroj: iStock.com/jentakespictures S nástupom generatívnych modelov však najväčšia online encyklopédia čelí paradoxnej situácii: technológia, ktorá sa na jej dátach vytrénovala, dnes predstavuje pre jej budúcnosť a integritu jednu z najväčších výziev. Keď bola 15. januára 2001 Wikipédia spustená, väčšina odbornej verejnosti ju považovala za utopický experiment odsúdený na zánik. Myšlienka, že by laická verejnosť mohla vytvoriť relevantnú encyklopédiu bez centrálnej autority, pôsobila absurdne. Dnes v roku 2026 sa karta obrátila. Wikipédia existuje vo viac než 300 jazykových verziách a stala sa prvou voľbou, na ktorú sa ľudia obracajú vo veci rýchleho overenia faktov. Vďaka komunite slovenských dobrovoľníkov tu v súčasnosti nachádzame aj množstvo odborných informácií z nášho domáceho prostredia, pričom medzi tisíckami hesiel nemôže chýbať ani článok o samotnom portáli Veda na dosah. V dobe, keď internet zaplavuje syntetický obsah generovaný algoritmami, sa tento projekt stáva akousi kotvou v rozbúrenom mori informácií – jedným z mála miest, ktoré je stále tvorené a kontrolované skutočnými ľuďmi. Jej vzťah s nastupujúcou umelou inteligenciou je však komplikovaný. Technológia totiž Wikipédiu životne potrebuje ako zdroj tréningových dát, no zároveň ju ohrozuje potenciálnym generovaním informačného balastu. Hoci veľké jazykové modely dokážu vygenerovať gramaticky správny a štylisticky pôsobivý text v priebehu sekúnd, v oblasti faktickej presnosti a dôveryhodnosti stále zaostávajú za ľudskými editormi. Zásadný rozdiel spočíva v schopnosti posúdiť váhu zdroja. Zatiaľ čo umelá inteligencia často „halucinuje“ – teda si vymýšľa fakty alebo citácie, ktoré vyzerajú uveriteľne –, ľudský editor sa riadi princípom overiteľnosti. Výskumy potvrdzujú, že ľudia, ktorí sami tvoria obsah pre Wikipédiu, sa stávajú odolnejšími proti dezinformáciám a dokážu oveľa lepšie rozlíšiť dôveryhodný zdroj od pochybného. Pravidlo, že každé tvrdenie musí byť podložené dôveryhodným a nezávislým zdrojom, je hlavnou obrannou líniou encyklopédie. Tento ľudský faktor je obzvlášť dôležitý pri menších jazykových mutáciách, kam patrí aj slovenská Wikipédia. Zatiaľ čo anglická verzia má tisíce aktívnych editorov, ktorí chybu odhalia takmer okamžite, slovenskú verziu spravuje výrazne menšia komunita dobrovoľníkov. Ak by sem začali prúdiť desiatky strojovo generovaných článkov s vymyslenými faktmi, malá skupina ľudí by nestíhala tento obsah kontrolovať a mazať. Každý zásah živého človeka je tu preto omnoho vzácnejší a kritickejší pre udržanie kvality. Vzťah medzi Wikipédiou a umelou inteligenciou však nie je čisto antagonistický. Na pozadí encyklopédie prebieha tichá, no efektívna spolupráca. Výskumníci vyvíjajú systémy na báze neurónových sietí, ako je napríklad systém SIDE, ktoré pomáhajú overovať kvalitu referencií. Tieto nástroje dokážu identifikovať citácie, ktoré pravdepodobne nepodporujú dané tvrdenie v texte, a dokonca navrhnúť vhodnejšie alternatívne zdroje z dostupných digitálnych archívov či odborných portálov. Okrem kontroly overiteľnosti zdrojov pomáhajú algoritmy aj pri detekcii vandalizmu, kde automatizované systémy mažú vulgárne či zjavne škodlivé úpravy skôr, než si ich všimne čitateľ. Pre menšie jazykové verzie sú kľúčové i pokročilé prekladateľské nástroje, ktoré editorom pomôžu s textom z angličtiny. Namiesto mechanického prekladu sa tak môže ľudský faktor sústrediť na to podstatné, čiže na kontrolu faktov, štýlu a kontextu. Iniciatívy zamerané na čistenie obsahu teda paradoxne využívajú inteligentné nástroje na to, aby odhalili nekvalitné texty vygenerované inými nástrojmi. Najväčším rizikom budúcnosti Wikipédie je fenomén tzv. informačného zacyklenia. Súčasné jazykové modely sa učili čítaním Wikipédie, ktorú napísali ľudia. Ak by však ľudia začali masovo vkladať do Wikipédie texty vygenerované AI modelmi, nastal by problém pri tréningu budúcich verzií umelej inteligencie. Tie by sa už neučili z ľudskej múdrosti, ale z výstupov svojich predchodcov. Namiesto toho, aby sa model poučil z chýb, by dochádzalo k ich zosilňovaniu a recyklácii. Model by považoval svoje vlastné staršie „halucinácie“ za overené fakty, pretože by ich našiel na Wikipédii. Tento proces by mohol viesť k degradácii kvality informácií a takzvanému kolapsu modelu. Štúdie varujú pred scenárom, kde by demotivácia ľudských prispievateľov (v dôsledku pocitu zbytočnosti vo vzťahu k rýchlej technológii) viedla k poklesu kvality obsahu. Nadácia Wikimedia preto dlhodobo zdôrazňuje, že umelá inteligencia má slúžiť výlučne ako asistent pri editovaní, nie ako autonómny autor. Ľudská diskusia a hľadanie konsenzu sú pre neutralitu a udržateľnosť encyklopédie nenahraditeľné. Po štvrťstoročí existencie stojí Wikipédia na rázcestí. V ére, keď je tvorba syntetického textu triviálnou záležitosťou, paradoxne rastie hodnota informácie, ktorá prešla kritickým ľudským posúdením. Wikipédia nie je hotový, statický produkt, ale živý organizmus, ktorý si vyžaduje neustálu ochranu pred digitálnym šumom. Budúcnosť tohto globálneho projektu nezávisí od výkonnosti serverov či pokročilosti algoritmov, ale od ochoty bežných ľudí kliknúť na tlačidlo Upraviť a venovať svoj čas overovaniu faktov. Práve nezištné odhodlanie dobrovoľníkov zostáva tou najúčinnejšou poistkou proti informačnému chaosu. Zdroje: Journal of Information, Communication and Ethics in Society, Nature Machine Intelligence, Journal of the Association for Information Science and Technology, Stockholm Intellectual Property Law Review dátadigitálne technológiehistóriahoaxinternetjazykknihamozogpočítačrobotsoftvértechnológiaumelá inteligenciaweb 9. januára 2026 | Zuzana Šulák Hergovitsová 25. januára 2025 | Zuzana Šulák Hergovitsová
Zdroj:
Prečítať celý článok