Știi cât de mult stăm pe rețelele sociale, nu? Când ne trezim, înainte să ne culcăm, în pauze, și cam oricând avem timp. Dar, sincer, nu tot ce vedem acolo e chiar ok. Uneori apar lucruri urâte, fake news sau chestii care chiar nu-și au locul. Și aici intervine întrebarea: cine e responsabil pentru ce se întâmplă pe social media?
Unii zic că platformele, cum ar fi Facebook sau Instagram, ar trebui să aibă grijă de tot ce apare acolo. Alții cred că fiecare utilizator ar trebui să fie responsabil pentru ce postează și ce distribuie. Și, ca să fie și mai complicat, guvernele încearcă să reglementeze totul, dar nu e chiar așa simplu cum pare.
Așa că, uite, hai să ne uităm puțin la fiecare platformă în parte să vedem cine ar trebui să își asume responsabilitatea și cum se descurcă fiecare până acum.
Responsabilitatea platformelor de social media
Platformele de social media controlează absolut tot ce vedem, de la postările prietenilor până la videoclipurile virale și știrile care ne apar în feed. Dar, să fim sinceri, ele prioritizează profitul în locul siguranței utilizatorilor. Fiecare platformă are un algoritm care decide ce apare mai des și ce primește mai multă atenție, iar de cele mai multe ori, acest algoritm promovează conținut care generează cele mai multe reacții emoționale, chiar dacă este toxic.
De ce fac asta? Simplu: postările care provoacă emoții puternice, fie ele furie, teamă sau frustrare, au mai multe șanse să fie distribuite, comentate și să atragă mai mulți utilizatori. În loc să elimine conținutul periculos, platformele îl amplifică, pentru că asta înseamnă mai mult timp petrecut online și, implicit, mai mulți bani din reclame. Algoritmii lor sunt proiectați să maximizeze acest tip de implicare, chiar dacă asta înseamnă să lase conținut toxic să circule.
În plus, când vine vorba de responsabilitate, platformele se ascund în spatele unor „termeni și condiții” pe care nimeni nu le citește cu adevărat. Își spală pe mâini spunând că au politici clare de moderare, dar realitatea este că acțiunile lor sunt fie insuficiente, fie doar de fațadă. Moderatorii umani nu fac față volumului de postări, iar algoritmii nu sunt suficient de buni pentru a detecta și opri tot ce este dăunător.
Așa că, da, platformele au un rol central și, de cele mai multe ori, sunt primele care ar trebui să fie trase la răspundere. Ele sunt cele care au puterea să schimbe ceva, dar aleg să nu o facă, pentru că banii vorbesc mai tare decât responsabilitatea socială. Fie că e vorba de un algoritm care prioritizează conținutul viral sau de o echipă de moderatori copleșită de volumul de muncă, platformele aleg să păstreze lucrurile așa cum sunt pentru a maximiza câștigurile.
Facebook: Profit din negativitate
Facebook este una dintre cele mai vechi și mai mari platforme, dar și una dintre cele mai criticate. Algoritmii săi sunt setați să prioritizeze postările care aduc cele mai multe reacții, și asta include adesea postări controversate, care provoacă furie sau frustrare. Adevărul e că Facebook știe exact ce face: promovează conținut care atrage atenția și ne face să reacționăm, chiar dacă asta înseamnă să lase în circulație postări toxice sau pline de dezinformare.
Chiar dacă Facebook susține că lucrează pentru a reduce dezinformarea și discursul de ură, măsurile lor sunt adesea doar pentru imagine. Postările periculoase rămân online mult prea mult timp, iar când utilizatorii raportează aceste postări, primesc frecvent răspunsuri automate care spun că „această postare nu încalcă standardele comunității”. Practic, platforma dă vina pe utilizatori și nu își asumă responsabilitatea reală. De ce? Pentru că orice activitate, fie ea pozitivă sau negativă, îi aduce bani.
Facebook a fost implicată în numeroase scandaluri legate de utilizarea datelor personale pentru a targeta reclame și conținut personalizat. Cu cât rămânem mai mult timp pe platformă, cu atât mai multe informații strânge despre noi, pe care le folosește pentru a ne menține implicați. De aceea, conținutul care stârnește reacții negative este profitabil—ne ține conectați și activi, iar compania câștigă bani din reclame și date. În loc să investească serios în moderarea conținutului, Facebook preferă să își maximizeze profiturile, lăsând în mod intenționat postările problematice să se răspândească, pentru că ele mențin utilizatorii online.
Mai mult, chiar și atunci când sunt presate de autorități sau organizații internaționale să schimbe algoritmii și politicile, reacția Facebook este lentă și, de cele mai multe ori, insuficientă. Măsurile luate sunt parțiale și nu abordează cu adevărat problema de la rădăcină, ci doar creează aparența că se întreprinde ceva. În realitate, totul este o strategie pentru a-și păstra utilizatorii cât mai activi, indiferent de costurile sociale.
X (Fostul Twitter): „Libertatea de exprimare” dusă la extrem
De când Elon Musk a preluat controlul asupra Twitter și l-a redenumit X, platforma a devenit un loc unde aproape orice este permis. Musk a relaxat politicile de moderare, argumentând că apără „libertatea de exprimare”, dar, în realitate, asta a dus la o explozie de postări toxice, discursuri de ură și dezinformare. Conturile care fuseseră suspendate anterior pentru comportament dăunător au fost reactivare, iar platforma permite ca postările controversate să circule fără restricții.
Problema este că, sub pretextul libertății de exprimare, X prioritizează de fapt postările care generează cele mai multe reacții emoționale. Platforma știe foarte bine că postările care stârnesc furie, indignare sau controverse atrag mai multă atenție, ceea ce se traduce în mai multe comentarii și distribuiri. Algoritmii săi sunt concepuți pentru a promova aceste postări, pentru că ele mențin utilizatorii activi și genera activitate constantă, ceea ce înseamnă profituri mai mari pentru companie din reclame.
X nu face eforturi semnificative pentru a reduce răspândirea informațiilor false sau a discursurilor de ură. Deși există funcții de raportare, răspunsurile automate sugerează adesea că „postarea nu încalcă regulile comunității”, chiar și în cazurile evidente de abuz sau dezinformare. Asta arată clar că platforma prioritizează menținerea activității utilizatorilor în loc să protejeze comunitatea.
Mai mult, Musk însuși a contribuit la amplificarea tensiunilor prin declarații controversate și politici care au încurajat postările toxice. În loc să filtreze și să controleze conținutul dăunător, platforma l-a promovat în mod activ, sub pretextul libertății de exprimare. Utilizatorii care răspândesc informații false sau incită la violență nu sunt sancționați în mod eficient, iar conturile care au fost suspendate anterior pentru astfel de comportamente sunt reactivare.
De fapt, prin această politică, X nu face decât să exploateze emoțiile utilizatorilor pentru a-și maximiza profiturile, lăsând conținutul toxic să circule liber. Cât timp postările continuă să atragă atenția și să mențină activitatea ridicată, platforma are doar de câștigat, indiferent de consecințele sociale.
Citeste si:
- 2024: Ești obligat să semnalizezi când virezi pe un drum cu prioritate?
- Este legal să depășești pe linia continuă dacă nu vine nicio mașină din sens opus?
- Top 10 muzicieni celebri care nu au avut succes ca artiști solo
Instagram: Estetica peste etică
La prima vedere, Instagram pare locul perfect pentru poze frumoase și content pozitiv. Dar, dacă sapi mai adânc, vezi că nu e chiar așa. Algoritmii Instagram sunt construiți să promoveze conținutul care atrage atenția și, din păcate, asta include postările care pot fi dăunătoare, cum ar fi cele ce promovează standarde nerealiste de frumusețe, mesaje legate de diete extreme sau chiar conținut instigator la ură.
Platforma știe că postările care creează controverse sau provoacă nesiguranță în rândul utilizatorilor tineri sunt distribuite și comentate mai des, ceea ce înseamnă mai multă activitate și timp petrecut pe platformă. Instagram, ca și alte platforme, prioritizează engagement-ul și profitul înainte de toate. Deși susțin că au politici stricte de moderare și algoritmi care monitorizează conținutul, adevărul este că aceste măsuri sunt doar superficiale. În realitate, multe postări dăunătoare rămân pe platformă și chiar sunt promovate, pentru că acestea generează trafic.
Un exemplu clar este legat de conținutul despre standarde de frumusețe. Instagram este plin de imagini retușate sau editate care promovează un ideal nerealist, ceea ce poate duce la probleme de sănătate mentală în rândul utilizatorilor, în special al celor tineri. Platforma nu face suficient pentru a limita aceste postări și, în schimb, continuă să le amplifice, știind că utilizatorii vor reacționa și vor interacționa cu ele. De multe ori, postările care încurajează diete extreme sau practici nesănătoase rămân neatinse, chiar dacă utilizatorii le raportează.
Platforma ar putea să folosească algoritmi mai buni și să investească serios în echipele de moderare pentru a proteja utilizatorii vulnerabili, dar preferă să păstreze totul așa cum este, pentru că profitul este mai important decât siguranța utilizatorilor. Conținutul problematic generează trafic, și cât timp acesta aduce bani, Instagram va continua să prioritizeze „estetica” în locul eticii.
TikTok: Controversă și profit la viteză maximă
TikTok a devenit rapid una dintre cele mai populare platforme din lume, dar și una dintre cele mai problematice. Algoritmii săi sunt setați să amplifice postările care devin virale rapid, iar acest lucru include de multe ori conținut periculos sau controversat. Platforma se bazează pe atenția utilizatorilor și vrea ca aceștia să rămână cât mai mult timp implicați. De aceea, postările care stârnesc reacții puternice, fie ele negative sau pozitive, sunt prioritizate în mod constant.
TikTok se folosește de reacțiile utilizatorilor pentru a păstra atenția lor cât mai mult timp, iar asta înseamnă că postările problematice sunt lăsate să circule liber. Deși TikTok susține că are echipe de moderatori și algoritmi care monitorizează conținutul, este evident că aceste măsuri nu sunt suficiente. Postările care promovează violența, hărțuirea sau comportamente nesănătoase continuă să apară în feed-uri, chiar și după ce sunt raportate de utilizatori.
În mod clar, platforma preferă să ignore problema cât timp aceasta aduce profit. Utilizatorii care distribuie conținut problematic ajung să aibă mai multe vizualizări și să rămână mai activi, iar algoritmii TikTok le amplifică postările pentru a atrage mai mulți oameni. TikTok ar putea să implementeze măsuri mai stricte de moderare și algoritmi care să reducă riscul conținutului toxic, dar preferă să continue cu modelul său actual pentru că profită enorm din vizualizări și interacțiuni.
Telegram: Dezinformare și propagandă fără limite
Telegram, platforma care se laudă cu confidențialitatea utilizatorilor și cu libertatea de exprimare, a devenit rapid un loc unde dezinformarea și propaganda înflorește, mai ales în contextul războiului din Ucraina. Ceea ce ar fi trebuit să fie o platformă de mesagerie securizată, folosită pentru comunicare privată și protecția datelor personale, s-a transformat într-un spațiu unde circulă necontrolat conținut periculos și falsuri grosolane.
În timpul războiului din Ucraina, Telegram a fost folosit pe scară largă pentru a răspândi minciuni, teorii ale conspirației și propagandă pro-rusă. Canalele publice și grupurile dedicate subiectului au devenit adevărate hub-uri de dezinformare, în care utilizatorii pot accesa informații distorsionate despre evenimentele de pe front. Asta include videoclipuri trucate, imagini scoase din context și știri false menite să manipuleze opinia publică. Lipsa oricărui control eficient din partea platformei a permis crearea și răspândirea de narative toxice care nu doar că încurajează ura, dar și alimentează dezinformarea globală.
Platforma, prin natura sa, permite crearea de grupuri și canale care nu sunt monitorizate corespunzător, ceea ce face ca Telegram să fie un loc ideal pentru propagandă și extremism. Guvernele și organizațiile de securitate cibernetică au tras repetate semnale de alarmă privind utilizarea acestei platforme pentru a răspândi minciuni periculoase și pentru a organiza activități ilicite. Cu toate acestea, Telegram nu a făcut aproape nimic pentru a stopa aceste fluxuri de dezinformare. Motivul? Ei susțin că sunt dedicați confidențialității și libertății de exprimare, ceea ce, în acest caz, se traduce prin refuzul de a implementa măsuri de moderare eficiente.
În plus, Telegram a devenit un loc unde extremiștii își găsesc un teren fertil pentru recrutare și organizare. Canale legate de mișcări radicale, naționaliste sau ultraconservatoare au înflorit pe platformă, datorită lipsei totale de control și a posibilității de a comunica în mod criptat. Aceste grupuri răspândesc nu doar dezinformare despre războiul din Ucraina, dar și mesaje instigatoare la ură și violență.
Deși Telegram ar putea implementa sisteme mai stricte de monitorizare a conținutului, platforma a ales să mențină un nivel minim de control, favorizând astfel răspândirea conținutului toxic. În loc să blocheze sau să suspende grupurile și canalele care răspândesc dezinformare, platforma se eschivează de la orice responsabilitate, motivând că utilizatorii sunt liberi să distribuie ceea ce doresc. Practic, Telegram a devenit o platformă unde războiul informațional este dus la un alt nivel, iar impactul negativ asupra opiniei publice este evident.
De ce platformele de social media nu elimină conținutul toxic?
Platformele de social media, fie că vorbim de Facebook, X, Instagram, Telegram sau TikTok, au toate un lucru în comun: profitul. Fiecare companie operează pe baza unui model de afaceri care se concentrează pe cât de mult timp utilizatorii petrec pe platformă și cât de mult interacționează cu conținutul. Cu cât utilizatorii petrec mai mult timp implicându-se în postări, fie ele pozitive sau negative, cu atât platformele câștigă mai mulți bani din reclame.
Eliminarea conținutului toxic ar însemna o reducere semnificativă a engagement-ului și a traficului. Postările care stârnesc emoții puternice, cum ar fi furia sau frustrarea, generează cele mai multe reacții și interacțiuni. De aceea, platformele preferă să mențină conținutul dăunător și controversat, pentru că acesta menține utilizatorii conectați și activi.
Deși fiecare platformă susține că are politici stricte și echipe de moderare, adevărul este că investițiile în moderare și în tehnologii eficiente pentru detectarea conținutului periculos sunt insuficiente. Algoritmii sunt setați să maximizeze engagement-ul, nu să protejeze utilizatorii. În final, atâta timp cât modelul de afaceri al acestor platforme se bazează pe exploatarea reacțiilor utilizatorilor, eliminarea conținutului toxic va rămâne o prioritate secundară.
Platformele de social media nu își vor schimba cu adevărat strategiile decât dacă vor fi forțate prin reglementări stricte sau presiune publică majoră. Până atunci, vor continua să folosească algoritmi care prioritizează profitul în detrimentul siguranței și bunăstării utilizatorilor.