• A YouTube-ot mérnökei a legnagyobb méretű és a létező legfejlettebb ipari ajánlórendszerként definiálták
  • Egy ex-YouTube-os bemutatja, hogyan politizál, hogyan segíti az ajánló algoritmus a megosztó tartalmú és az összeesküvés-elméleteket népszerűsítő klipeket
  • A Chaslot adatbázisában szereplő, YouTube-ajánlotta választási videókat összesen több mint 3 milliárd alkalommal nézték meg a 2016. novemberi elnökválasztás előtt
Ténygyár-tartalom
10 percnyi olvasnivaló

Ezt volt az egyik, leginkább vírusként terjedő videó: Logan Paul, YouTube-celeb, beleütközik egy fáról lelógó akasztott emberbe. A 22 éves fiút először láthatóan megrázza az öngyilkosságok helyszíneként ismert japán erdőben elé táruló látvány, majd inkább szórakoztatni kezdi: „Te, haver, ennek lila a keze – mondja, mielőtt kuncogva barátaihoz fordult. – Te még sohasem álltál egy hulla mellett?”

Paul, akinek YouTube-csatornáját 16 millióan – leginkább tinédzserkorúak – követik, 24 órával később eltávolította a videót a dühös felháborodás miatt, de már ez az idő is elég volt ahhoz, hogy mintegy 6 milliónyian megtekintsék a felvételt, és az bekerüljön a trendi videók áhított YouTube-listájára.

Ha valaki rákattintott az „Up next” bélyegképek egyikére, egy sor olyan automatikusan elinduló videóval találkozott, amelyek mind Logan Paul tinédzser követőin gúnyolódtak. Ha pedig valaki nem akarta, hogy élete végéig fogszabályzós öt-hat éves kölykök püföljék egymást a szeme láttára, megoldást csak az előzmények, cookie-k kiradírozása és egy privát böngésző elindítása nyújthatott. Egyébként nem szabadult a YouTube ajánló algoritmusától.

A világon 1,5 milliárd YouTube-felhasználó van, több, mint amennyi televízió-néző. Mindazt, amit megnéznek, a YouTube algoritmusa dolgozza fel: több milliárd videót rendez, és azonosítja azt a 20 „up next” videoklipet, amelyek egyaránt relevánsak az előző videóval, és statisztikai szempontból valószínűsíthető, hogy képesek a képernyő elé cövekelni az érdeklődőt.

Gyerekeknek összeesküvés-elméleteket!

A vállalatot ismerők szerint ez az algoritmus a YouTube növekedésének legfontosabb motorja. A képlet működésének egyik nyilvános magyarázatában – elfedve az algoritmus mély neurális hálózatait, a videókról és a megtekintőkről összeállított rengeteg adatrészletet – a YouTube mérnökei ezt a legnagyobb méretű és a létező legfejlettebb ipari ajánlórendszerként definiálták.

Az algoritmus megítélése az utóbbi időben igen ellentmondásossá vált, többek között, mert táptalajává vált a Las Vegas-i tömegmészárlás kapcsán elterjedt összeesküvés-elméleteknek, eljuttatva azok ajánlásait a rajzfilmeken nevelkedő gyerekeknek.

Az erkölcstelen és erőszakos videókat algoritmikus módon szolgáltatták a YouTube Kids programot – egy dedikáltan gyermekek számára készült alkalmazást – követő kisgyerekeknek. Ezek készítőinek egyike, aki számára megtiltották, hogy anyagi hasznot húzzon a „furcsa videóknak” a reklámbevételeiből, azzal védekezett, hogy ő csak a Google-algoritmus igényeire akart reagálni…

A Google egy népszerű kincskereső társasjáték, a Whac-A-Mole elvei szerint reagált a vádakra: kibővítette az emberi moderátorok hadseregét, eltávolította az újságírók által azonosított erőszakos videókat, és bezárta a hozzájuk kapcsolódó csatornákat. De egyik ilyen lépés sem volt képes eloszlatni a növekvő aggodalmat, hogy valami nagyon félrement a mesterséges intelligencia területén a YouTube-nál.

És ha ez még nem lett volna elég, jött a 2016-os amerikai elnökválasztás! A Facebook és a Twitter politikabefolyásoló hatásáról már korábban is sok szó esett, de az elmúlt hónapokban azt is sikerült kiokoskodni, hogy a YouTube algoritmusai szolgáltak eszközül a dezinformáció terjedésének. Egy elismert szociológus, Zeynep Tufekci szerint a 2006-os választási sztori leginkább figyelmen kívül hagyott eleme a YouTube, pedig „a keresési és ajánló algoritmusai rosszindulatú motorok”.

De ha a YouTube ajánló algoritmusa tényleg ilyen sok vérlázító tartalom népszerűsítésében játszott közre, mindez hogyan történhetett meg?

Nem könnyű megválaszolni a kérdést. Más nagy cégekhez hasonlóan a YouTube sem engedi meg, hogy közelebbről megismerhessük az életünket formáló algoritmusokat. Ezek titkos képletek, szabadalmaztatott szoftverek, és csak kevés számú kiválasztottat engednek dolgozni az algoritmuson. Guillaume Chaslot, egy 36 éves francia programozó egyike volt ezeknek a kiválasztottaknak.

A Google-nál eltöltött három éve alatt több hónapon keresztül dolgozott az ajánló rendszert fejlesztő YouTube-mérnökök csapatával. Tapasztalatai alapján arra a következtetésre jutott, hogy a YouTube prioritási algoritmusai veszélyesen egyoldalúak.

„A YouTube úgy néz ki, mintha valóságos lenne, de azért vannak benne torzítások, hogy felhasználója minél több időt töltsön az interneten” – mesélte a Guardian újságírójának. – „Az ajánlási algoritmusnak esze ágában sincs aszerint optimalizálni, hogy valami igazságos vagy kiegyensúlyozott vagy egészséges a demokrácia számára.”

Sohasem ugyanolyan az algoritmus

Chaslot elmagyarázta: az algoritmus sohasem ugyanolyan. Folyamatosan változik a különböző jelzésekre – például a felhasználó megtekintési mintáira vagy egy videóra kattintást megelőző időtartamra – adott súlyozás. Egyetlen lényeges szempont volt: növelni a reklámbevételeket a videók megtekintésének meghosszabbításával.

Chaslót a Google 2013-ban rúgta ki, teljesítményokokra hivatkozva, de ő kitart egy másfajta magyarázat mellett: azt követően „engedték el a kezét”, hogy hasonló gondolkodású mérnökökkel közösen olyan változtatásokat javasolt, amelyek alapján diverzifikálhatók lettek volna a tartalmat megtekintő felhasználók.

Különös aggodalmát fejezi ki a torzítások miatt, amelyek abból a leegyszerűsítésből adódhatnak, hogy az embereknek olyan videókat mutatnak be, amelyeknek nem tudnak ellenállni, és olyan szűrőfeltételeket hoznak létre, amelyek csak az ő világról alkotott nézeteiket megerősítő tartalmakat juttatnak el hozzájuk. Chaslot szerint a javasolt módosításainak egyikét sem vették figyelembe a vezetői, pedig sok mód lenne arra, hogy a YouTube megváltoztassa algoritmusát, elnyomva a hamis hírek terjedését és javítva a videók minőségét és sokszínűségét.

A YouTube csak 2016-ban kezdte figyelembe venni a felhasználói elégedettséget – pedig a Google már 2006-ban megvásárolta –, például felmérések segítségével vagy a videóra adott lájkokat számlálva. 2017-ben további módosításokat hajtottak végre, hogy javítsák a keresésekben és ajánlásokban szereplő hírek tartalmát, és elvágják az útját a „szélsőségesen vallásos vagy felsőbbrendűséggel operáló” tartalmú videók promóciójának.

Programot írt az ex-YouTube-os

Chaslot 2016 nyarán saját számítógépes programot készített, hogy utánajárjon a dolognak.
A szoftvert úgy tervezte, hogy az betekintést nyújtson a YouTube ajánlási motorjának működésébe: szimulálja egy felhasználó viselkedését, aki egy videó megnézésétől indulva követi az ajánlott videók láncolatát.

A videókat egy keresőszóval találta meg, kiválasztva a kiindulási videót és összegyűjtve azokat a videórétegeket, amelyeket a YouTube az „up next” oszlopban megtekintésre javasol. Így elkerülte, hogy megjelenjenek a megtekintési előzményei, biztosítva, hogy ne a felhasználói személyre szabás, hanem a YouTube általános ajánlásai érvényesüljenek. Több ezer alkalommal megismételte ezt a folyamatot, felhalmozva a YouTube ajánlásaival kapcsolatos adatokat, hogy képet alkosson az algoritmus preferenciáiról.

Chaslot másfél éven keresztül – a francia, a brit és a német választások, a globális felmelegedés és tömegmészárlások kapcsán – használta fel a programot az ajánlott YouTube-tartalom elfogultságának feltérképezésére, megállapított eredményeiről saját, Algotransparency.com című oldalán számolt be. Minden egyes keresés során valami másra derült fény, de összességében azt sugallja a kutatás, hogy a YouTube szisztematikusan erősíti a megosztó, szenzációhajhász és összeesküvés-elméleteket propagáló videókat.

Ki az a Michelle Obama?

Amikor például a „Ki az a Michelle Obama?” kérdésre válaszul programja rátalált egy kiindulási videóra, az „up next” láncolatban szereplő ajánlatok legtöbbje férfiként tekintett a volt first ladyre. A pápáról szóló YouTube-videók több mint 80%-a pedig „gonosznak”, „sátáninak” vagy „antikrisztusnak” állította be a katolikus egyház vezetőjét. Az algoritmus étvágyát táplálandó több millió olyan videót is feltöltöttek a YouTube-ra, amelyek azt állítják, hogy lapos a Föld. „A YouTube-on a fikció simán felülírja a valóságot” – szögezte le Chaslot.

De minden korábbi döbbenetét felülírta az a tapasztalat, amelyre Chaslot – programja – a 2016-os elnökválasztási roham alkalmával tett szert. Amint egy rövid, szinte észrevehetetlen blogbejegyzésben közzétette Donald Trump megválasztása után, a YouTube ajánlási algoritmusa egyáltalán nem bizonyult semlegesnek az elnökségért folyó verseny során: mindenáron Trumpot segítő, Hillary Clintonnak ártó videókat igyekezett lenyomni a torkán. Akárhonnan indult, akár Trumpra, akár Clintonra keresett rá, az ajánlási algoritmus nagy valószínűséggel a trumpista irányba terelte.

Trump három ingadozó államban megszerzett plusz 80 000 szavazattal nyerte a választást. A YouTube-nak akkoriban több mint 150 millió felhasználója volt az Egyesült Államokban. A Chaslot adatbázisában szereplő, YouTube-ajánlotta választási videókat összesen több mint 3 milliárd alkalommal nézték meg a 2016. novemberi szavazás előtt.

A YouTube ajánlásainak felderítésére használt Chaslot-módszertan teljes leírása (és annak magyarázata, ahogyan a Guardian elemezte őket) itt elérhető.

 

Ez a cikk is érdekelhet

A magyarok a családtagjaiknak
hisznek, nem a kormánynak

A magyarok többsége nem tartja demokratikusnak Magyarországot, nem bízik a politikai rends…