Depressionen, Suizid: Amnesty sieht TikTok als Gefahr für Junge
WIEN. Amnesty International sieht die Plattform TikTok als Gefahr für junge Menschen: Aufgrund von Empfehlungen würden ihnen Inhalte über Depressionen und Suizid angezeigt, die bestehende Probleme verschlimmern könnten. Das zeigte sich bei Recherchen, für die eigens angelegte Konten verwendet wurden.
Die Ergebnisse stammen aus einer gemeinsamen technischen Untersuchung von Amnesty, dem Algorithmic Transparency Institute (ATI) und der National Conference on Citizenship and AI Forensics. Die beiden Berichte "Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation" und "I Feel Exposed: Caught in TikTok's Surveillance Web" machen auf Menschenrechtsverstöße aufmerksam, denen minderjährige und jugendliche TikTok-Anwenderinnen sowie -Anwender ausgesetzt seien.
"Die Berichte entlarven die manipulative und süchtig machende Art und Weise, wie TikTok-Feeds gestaltet sind. Diese zielen darauf ab, Nutzerinnen und Nutzer so lange wie möglich auf der Plattform zu halten. Die Funktionsweise von TikTok und dessen aufgrund der eigenen Algorithmen angezeigten Empfehlungen, (...) können Kinder und Jugendliche mit bestehenden psychischen Problemen ernsten Gefahren aussetzen", wird Lisa Dittmer, Research-Expertin bei Amnesty zitiert. Laut Amnesty riskiert TikTok, psychische Probleme wie Depressionen, Angstzustände und Selbstverletzung noch weiter zu verstärken.
Potenziell schädliche Inhalte
Der "For You"-Feed von TikTok sei eine hochgradig personalisierte Seite, durch die man endlos weiter scrollen kann. Sie enthält algorithmisch empfohlene Inhalte, die das System nach den mutmaßlichen Interessen der Anwenderinnen und Anwender auswählt. Die Recherchen ergaben, dass der Feed nach nur fünf bis sechs Stunden auf der Plattform fast zur Hälfte aus Videos über psychische Gesundheit bestand, die potenziell schädliche Inhalte aufwiesen - das sind zehnmal mehr einschlägige Videos als bei Konten, die kein Interesse an Inhalten bezüglich geistiger Gesundheit zeigten, warnte Amnesty.
Für die technischen Recherchen wurden mehr als dreißig automatisierte Konten eingerichtet, die vermeintlich 13-jährigen Nutzerinnen bzw. Nutzer in Kenia und den USA gehörten, um die Auswirkungen der algorithmischen Empfehlungen auf junge Anwender zu erfassen. Eine zusätzliche manuell durchgeführte Simulation umfasste je ein Konto in Kenia, den Philippinen und den USA.
Abwärtsspirale
Diese Abwärtsspirale trat sogar noch schneller ein, wenn die Videos über psychische Gesundheit, die den Testkonten vorgeschlagen wurden, von den Amnesty-Experten erneut angeklickt und angesehen wurden. Nach nur drei bis 20 Minuten bestand der "For You"-Feed mit dieser Methode zu mehr als der Hälfte aus Videos, die psychische Probleme thematisierten. Innerhalb einer Stunde wurden zahlreiche empfohlene Videos angezeigt, die Suizid normalisierten oder sogar romantisierten.
Die Recherchen von Amnesty International zeigten, dass das Geschäftsmodell von TikTok von Natur aus missbräuchlich sei und die Nutzerinnen und Nutzer belohne, um sie an die Plattform zu binden und immer mehr Daten über sie zu sammeln. Außerdem würde TikTok seine Schutzmaßnahmen nur in bestimmten Teilen der Welt anwenden, sodass einige Kinder und Jugendliche der ausbeuterischen Datensammlung noch stärker ausgesetzt sind als andere, so Amnesty.
Lesen Sie auch:
- Erster EU-Pflichtbericht von Tiktok: Vier Millionen schädliche Videos
- So viele Menschen nutzen TikTok in Österreich monatlich
- Soziale Medien: 72 Prozent sehen Manipulation als Gefahr
Amnesty fordert, dass TikTok - nicht nur in Europa - die Rechte all seiner jüngeren Nutzer respektiere, indem es jegliche gezielte Werbung verbiete, die sich an Personen unter 18 Jahren weltweit richtet. Außerdem solle der "For You"-Feed nicht standardmäßig personalisiert werden. Stattdessen sollen die Anwender die Möglichkeit haben, aktiv zu entscheiden, welche Interessen ihre Inhaltsempfehlungen beeinflussen, und zwar auf der Grundlage ihrer informierten Zustimmung und wenn sie einen personalisierten Feed wünschen.
TikTok verweist auf Community-Richtlinien
Als Reaktion auf die Recherchen von Amnesty International verwies TikTok auf seine Community-Richtlinien, in denen festgelegt ist, welche Arten von Inhalten verboten sind und daher von der Plattform entfernt werden, wenn sie gemeldet oder anderweitig identifiziert werden. Dazu gehöre ein Verbot von Inhalten, die Suizid und Selbstverletzung zeigen, fördern oder Anleitungen dazu geben, sowie damit zusammenhängende Herausforderungen, Mutproben und Spiele, die "Suizid- und Selbstverletzungshandlungen zeigen oder fördern" und "Pläne für Suizid und Selbstverletzung teilen".
TikTok erklärte außerdem, dass ein Prozess eingeleitet wurde, um einen "unternehmensweiten Prozess der menschenrechtlichen Sorgfaltspflicht zu entwickeln, der die Durchführung regelmäßiger Bewertungen der Auswirkungen auf die Menschenrechte beinhaltet", hieß es in der Aussendung von Amnesty. Das Soziale Netzwerk machte jedoch keine Angaben dazu, welche spezifischen Risiken für die Menschenrechte von Minderjährigen sowie jungen Nutzerinnen und Nutzern es identifiziert hat. Dass TikTok derzeit keine unternehmensweite menschenrechtliche Sorgfaltsprüfung durchführt, sei ein klares Versäumnis des Unternehmens, seine Verantwortung für die Achtung der Menschenrechte wahrzunehmen, kritisierte Amnesty.
wie wär's mit lernen, arbeiten, im Verein tätig sein oder bei zuviel Freizeit, Sport betreiben....
Nicht nur Tiktok. Sämtliche Social Media Plattformen sind Gift für unsere Kinder.
Nur weil TikTok aus China kommt, ist es keineswegs gefährlicher als der amerikanische SocialMedia-Dreck.