Marți, 7 ianuarie, Mark Zuckerberg a anunțat o schimbare radicală în politica de moderare a conținutului pe rețelele sociale Facebook și Instagram. După aproape un deceniu, Meta va elimina programul de parteneriate cu organizațiile media și ONG-urile care aveau rolul de a verifica informațiile și de a semnala conținutul fals sau înșelător.
Până acum, acest program le permitea partenerilor să publice verificări de informații care apăreau alături de postări considerate false sau înșelătoare. Partenerii, cum ar fi Agenția France-Presse (AFP) în Franța, erau remunerați pentru acest efort. Programul fusese lansat pentru a combate criticile conform cărora Facebook și Instagram ar fi platforme care facilitează dezinformarea și incitarea la ură.
Potrivit sursei, impactul acestui program a fost limitat. Verificările erau adesea publicate cu întârziere, reducând eficiența lor, iar volumul imens de conținut postat pe platforme făcea imposibilă verificarea tuturor informațiilor.
În locul parteneriatelor de fact-checking, Meta va implementa un sistem bazat pe evaluări ale utilizatorilor, inspirat de platforma X a lui Elon Musk. Acest sistem va permite utilizatorilor să evalueze veridicitatea postărilor, marcând o schimbare semnificativă de abordare în gestionarea conținutului problematic.
Această decizie reflectă o schimbare simbolică și potențial controversată în strategia de moderare a Meta, într-un moment în care dezinformarea continuă să fie o problemă globală majoră. Criticii avertizează că un sistem bazat pe utilizatori ar putea duce la erori și abuzuri, în timp ce susținătorii schimbării văd în aceasta o oportunitate de a implica mai activ comunitatea digitală.
Un Emoji sau Sticker va îmbogăți acest articol.
