Inimeste igapäevane inforuum võib olla kardinaalselt erinev. Selle üks põhjus on filtrimullid, mis kureerivad sisu, mida internetis näeme: näiteks sotsiaalmeedia ettesöödetavas infovoos ja otsingumootorite tulemustes. Teadlikult tegutsedes saab igaüks siiski enda infovoogu mitmekesisemaks muuta, kirjutab TÜ ühiskonnateaduste instituudi ajakirjanduse ja kommunikatsiooni magistrantuuri üliõpilane Karolina Kadak Novaatoris.
Viimastel aastatel on ühiskonnas pingeid tekitanud mitmed kriisid: näiteks koroonapandeemia, energiakriis ja Venemaa täiemahuline agressioon Ukrainas. Need kõik on toonud eri tahkude alt esile ühiskonna eriarvamused. Olukorras, kus teiste inimeste arvamused võivad tunduda väga vastuolulised, on kerge tekkima küsimus "kuidas ta ometi nii saab mõelda?", sest populaarsed meediaväljaanded käsitlevad justkui uudiseid, mis peaksid meie kõigini jõudma. Küllap oleme kõik kuulnud ütlust, et keegi elab omas mullis, kuid ajal, mil arvestatav osa inimestest saab oma igapäevased uudised kätte sotsiaalmeediast, on see omandanud täiesti uue tähenduse.
Ajakirjanduse roll inimeste informeerimisel ning kindlate teemade ja vaatepunktide laiema avalikkuse ette toomisel on pidevalt kahanemas. Tühimiku täitmiseks on kasvanud plahvatuslikult sotsiaalmeedia populaarsus. Näiteks Ameerika statistika näitab, et USA-s kasutab sotsiaalmeediat ligikaudu seitse inimest kümnest – seda hoolimata üldsuse negatiivsetest arvamustest sotsiaalmeedia kohta. Inimesed saavad aru, millised on sotsiaalmeedia negatiivsed küljed, kuid ei suuda sellest ka eemale hoida.
Üks sotsiaalmeedia negatiivseid tagajärgi on filtrimullid, millest praeguses inforuumis aina enam räägitakse. Filtrimull tekib siis, kui inimesed n-ö jäävad lõksu algoritmide poolt pakutava informatsiooni raamistikku. Lühidalt öeldes toodab personaliseerimise algoritm igale inimesele erinevat teavet, mis põhineb IP aadressil, otsinguajalool, küpsistel ja muul infol, mida internetikäitumise kohta kogutakse.
Filtrimulli mõiste võttis esimesena kasutusele internetiaktivist Eli Pariser, kes tõi välja, et inimesed ei pruugi olla teadlikud personaliseerivatest algoritmidest ja filtritest, mis otsustavad, millist teavet inimestele näidata. Platvormide poolne suunamine võib olla otsene – näiteks sõbraks lisamise soovituste kuvamine – või kaudne, näiteks personaliseeritud uudisvoo kuvamine, mis sisaldab endas sisu, millele kasutaja tõenäolisemalt reageerib. Kui inimene on millegi kohta infot otsinud, siis hakkab ta seda ilmselt ka sotsiaalmeedias aina sagedamini nägema.
Nii ümbritsevad otsingualgoritmid inimesed nende endi vaatepunktidega haakuva sisuga, misläbi puutuvad nad minimaalselt kokku teise sisuga arvamustega. Selle tulemusel aga võib väheneda inimeste vaimne paindlikkus, mis tekib teistsuguseid seisukohti või mõtteid kohates.
Filtrimullide tekkepõhjuseks peetakse personaliseerivaid algoritme, (mida kasutavad näiteks Facebook või Google), mis pakuvad inimesele tema enda teadmata teavet, mis ta enda eelistustega sobib ning hoides temast eemal info, mis sellele vastandub. Sellel on selge põhjus. Kuna sotsiaalmeedia platvormid teenivad tulu inimestele reklaame näidates, hoitakse inimesi platvormide sisu tarbimas võimalikult kaua.
Eriti tõhusalt toimib see tänu personaliseeritud sisule, mis paneb kasutajaid veelgi rohkem uuele teabele klõpsama jaotsinguid tegema. See on üks teguritest, mis põhjustab Jeff Orlowski menukas dokumentaalfilmis "Sotsiaalse dilemma" käsitletud olukorda – sotsiaalmeedia on nii sõltuvusttekitav, et inimesed ei suuda sellest enam lahti lasta. See on nendega kaasas igal hetkel, nii söögilauas kui ka magama minnes.
Sellest kaotab kõige enam ühiskond, kus ei toimu enam mitmekesiseid ja teiste inimeste vaatepunktidega arvestavaid arutelusid, sest ühiskonna liikmed pole üksteise vastanduvate seisukohtade taga peituvast argumentatsioonist teadlikud või ei oska seda mõista.
Filtrimullide ohtlikkusele on viidanud isegi Apple'i tegevjuht Tim Cook, kes ütles 2019. aastal peetud kõnes, et algoritmid suunavad meid teemade poole, millega oleme juba tuttavad või mis meile meeldivad – kuid see ei peaks nii olema. Seetõttu võib uute vaatenurkade leidmine olla tänapäeval isegi revolutsiooniline.
Eriti oluline on see poliitiliste või eetiliste küsimuste puhul, kus inimesed ei pruugi kunagi näha enda arvamusele vastanduvaid seisukohti. Nii satuvad nad filtrimulli, millest väljaspool toimuvast nad teadlikud ei ole. Eriti probleemseks võib osutuda see just valeinfo leviku puhul. See loob selge ohu: näiteks on filtrimulle seostatud valeinfo levikuga, mis on mõjutanud nii Brexitit, USA 2016. aasta presidendivalimisi kui ka immigratsioonivastaseid meeleavaldusi Euroopas. Valeinfo leviku otsest mõju ning filtrimullide toimimist nägi ka Covid-19 pandeemia ajal.
Filtrimullidega koos töötavad näiteks ka kõlakambrid, mis tekivad siis, kui sarnaste vaadetega inimestest koosnevad grupid võtavad omakeskis endale olulistel teemadel sõna, korrates samu mõtteid ja neile seeläbi kinnitust saades. Kui inimene enda vaadetele vastanduva infoga kokku ei puutu, on tal suurem tõenäosus arvata, et temaga samal arvamusel on suurem osa ühiskonnast kui tegelikult.
Filtrimullidest tulenevatele probleemidele aitavad olulisel määral kaasa ka sotsiaalmeediaplatvormid ise. Näiteks Youtube, mida on seostatud kasutajate paremäärmuslike videode (sh ka rassismi propageeriva sisu) poole suunamisega – kuigi selle põhjus on platvormi soov hoida inimesi võimalikult kaua videoid vaatamas, loob see tugeva filtrimulli efekti. See tugevdab inimestes radikaalseid vaateid, muutes Youtube'i väga võimsaks relvaks, mida saavad kasutada paremäärmuslikud või neonatsismi pooldavad kogukonnad.
Sarnased probleemid esinevad teistelgi platvormidel, kuid Youtube'il on üks oluline erinevus. See pole lihtsalt meelelahutusplatvorm, vaid koht, kuhu paljud inimesed pöörduvad info ja õpetuste saamiseks. Kes meist poleks vaadanud mõnda tutoriali just Youtube'ist? Sealjuures pole Youtube'il aga paika pandud kindlat missiooni, väärtuseid ning raamistikku, mis aitaks hinnata platvormil jagatava sisu õigsust ning kvaliteeti. Sealne sisu pole seega otseselt hallatud, vaid pigem hädavajalikul tasandil modereeritud.
Poliitilised kogukonnad kasutavad enda vaadete populariseerimiseks ka TikToki, mida seostatakse poliitilise sisu lihtsama levikuga. Näiteks on sealne sisu võrdlemisi vähe piiratud ja modereeritud, mistõttu saab videoid kiirelt avalikkusega jagada. Nii kasutab TikToki näiteks Rootsi paremäärmuslik erakond Sverigedemokraterna, et jagada aktivistide abil enda vaateid, leida valijaid ja kritiseerida Rootsi riigikorda.
Siiski saavad inimesed end filtrimullidesse sattumise eest mingil määral kaitsta. Näiteks tasub ajakirjandusteadlase Marju Himma sõnul teadvustada enda huvisid ja proovida teadlikult otsida infot sellest väljaspool. Näiteks uurida gruppe või inimeste profiile, kelle vaadetega me täielikult ei nõustu – internetiotsinguid on hea teha ka incognito režiimis, mis võib aidata filtrimullist väljapoole näha.
Peale selle tasub jälgida mitmekesise infoga Eesti ja välismaa ajakirjandusväljaandeid, mida saab usaldada rohkem kui sotsiaalmeediat, sest meediaväljaannetel on kohustus avaldatavat teavet kontrollida. Siingi on oluline valida teadlikult erinevaid väljaandeid, et vältida ajakirjanduse infomulli sattumist.
Samuti tasub vaadata valeinfot ümberlükkavaid videoid ehk näiteks teadusliku sisuga videoid või autoriteetseid uudisallikaid, mis aitab soovitatavate videode sisu kvaliteetsemaks muuta ning võib inimese valeinfo filtrimullist välja tuua.
Nende soovituste kõrval tasub aga meeles pidada, et ka mitmekesises infoväljas olles tuleks säilitada kriitikameel ja kontrollida allikaid, millest info pärineb. Teadusuuringud näitavad, et allikate kontrollimine on üks tõhusamaidviise valeinfo tuvastamisel. Filtrimullide tekkimise oht ei tähenda seega, et sotsiaalmeedia kasutamine on tingimata halb. Probleemist tuleb teadlik olla ning selle ennetamisele tähelepanu pöörata.