Trumps FTC gibt die Regulierung von Social-Media-Plattformen auf, obwohl festgestellt wurde, dass fast 20 % der amerikanischen Kinder täglich vier oder mehr Stunden online sind

(SeaPRwire) –   In einem Internet, in dem man eher mit Bots interagiert als mit echten Menschen online, während Kinder täglich technikaffiner werden und sich besser mit Smartphones zurechtfinden als mit Fahrrädern, suchen soziale Medienplattformen nach Möglichkeiten, die Privatsphäre der Menschen im Vordergrund zu halten und gleichzeitig die Sicherheit ihrer minderjährigen Nutzer zu gewährleisten. Leider stehen diese beiden Parameter oft in Widerspruch zueinander, und das Fehlen staatlicher Aufsicht bedeutet, dass diesen Unternehmen wenig Anreiz besteht, mehr zu tun als den Status quo aufrechtzuerhalten.

Das hat sich erst vor kurzem geändert, als etwas im öffentlichen Internet auftauchte und immer mehr Menschen beschlossen, die Angelegenheit vor Gericht zu bringen. Jetzt versuchen die Unternehmen proaktiv, minderjährige Nutzer online sicher zu halten und gleichzeitig die Privatsphäre der gesammelten Daten aller Menschen zu gewährleisten, indem sie neue Methoden zur Überprüfung des Alters ihrer Online-Nutzer verfolgen. Das Fehlen bundesstaatlicher Vorschriften beschleunigt jedoch diese paradoxe Anforderung und verstärkt den Konflikt: Soziale Medienunternehmen können die Daten von Nutzern aller Altersgruppen sammeln, um Kinder sicher zu halten.

Die Federal Trade Commission (FTC) hat diese Woche eine Erklärung abgegeben, in der es sozialen Medienunternehmen erlaubt wird, persönliche Daten von Kindern ohne elterliche Zustimmung im Namen der Altersüberprüfung zu sammeln. Damit wird eine Ausnahme von der Children’s Online Privacy Protection Rule (COPPA) geschaffen, die bisher eindeutig festlegte, dass Daten von Kindern unter 13 Jahren nicht gesammelt werden dürfen. Angesichts der Tatsache, dass COPPA entwickelt wurde, um sensible Daten zu schützen, gibt die FTC den sozialen Medienunternehmen fast freie Hand, alle Informationen zu sammeln, die sie für die Altersüberprüfung als notwendig erachten.

„Die Privatsphäre kann manchmal wie die beiden Seiten einer Münze sein“, sagte Johnny Ayers, CEO und Gründer des mit Künstlicher Intelligenz betriebenen Identifizierungssoftwareunternehmens Socure. „Es besteht eine sehr gefährliche Naivität in Bezug auf Identitätsbetrug, Echtzeitüberprüfung und Deepfake-Erkennung.“

„Man kann keine Biometriedaten von einem Kind sammeln“, sagte er gegenüber . „Und wie kann man also überprüfen, dass jemand 13 Jahre alt ist, ohne etwas zu sammeln, das beweist, dass er 13 ist.“

Die FTC bezeichnet diese Politikänderung als Schritt in die richtige Richtung, aber Psychologen und Datenschutzexperten warnen davor, dass es den Unternehmen ermöglicht wird, die Datensammlung zu weit treiben, alle Scheindatenschutzmaßnahmen zu untergraben und dass die Schäden an Kindern bereits angerichtet sind.

„Diese Plattformen wurden für Erwachsene entwickelt. Sie wurden für Erwachsene entwickelt, aber Kinder nutzen sie. Es war nie beabsichtigt, wie ein Produkt für Kinder aussehen sollte. Es war ein Nachdenken, was dann bedeutet, dass wir versuchen, Löcher zu stopfen“, sagte Debra Boeldt, eine Psychologin für generative KI bei dem Unternehmens Aura, das sich mit Online-Sicherheit für Familien befasst, gegenüber . „Viele dieser Unternehmen versuchen derzeit zu helfen, haben aber nicht die Ressourcen, die dafür erforderlich sind, oder die auf Evidenz basierenden, ausgebildeten Personen, die darüber nachdenken und planen können.“

Sie leitet das klinische Forschungsunternehmen bei Aura, einer Online-Sicherheitslösung für Einzelpersonen und Familien, um ihre Identitäten – und die ihrer Kinder – in einer zunehmend digitalen Welt zu schützen. Das Unternehmen nutzt KI, um die Online-Aktivitäten von Familien zu überwachen und kann sogar Tastatureingaben erkennen, um festzustellen, ob ein Kind eine schädliche Sprache oder Plattform nutzt.

Boeldt ist eine Klinische Psychologin mit Hintergrund in der Kinderentwicklung. Ihr Team hat festgestellt, dass fast jeder fünfte unter 13-jährige Kind täglich vier oder mehr Stunden online verbringt, was zu erhöhten Depression- und Angstlevels unter den jüngsten Internetnutzern führt.

Die Ergebnisse gehen so weit, dass sie den Begriff „zwanghaftes Entsperren“ geprägt haben, der sich auf den Zeitpunkt bezieht, zu dem Kinder normalerweise aufstehen – um 7 Uhr morgens, mit einer inneren Uhr, die der eines Rauchers ähnelt – und fast rituell ihr Telefon checken. Das Unternehmen hat auch festgestellt, dass Mädchen zu 17 % eher Angstzuständen ausgesetzt sind, die durch den Druck in Bezug auf ihre digitale Verfügbarkeit und Verbindung verursacht werden.

Kinder spielen digitales Schlag den Hennenkopf

Die Bemühungen sozialer Medienunternehmen, Kinder von ihren Plattformen zu entfernen, werden schwierig sein, einfach weil die Kinder wissen, wie sie diese Maßnahmen umgehen können.

„Dies ist einfach ihr normaler Raum, in dem sie Kontakt aufnehmen“, sagte Boeldt und fügte hinzu, dass alle Versuche „etwas wie beim Schlag den Hennenkopf“ sein werden, bei dem minderjährige Nutzer einfach zur nächsten Plattform wechseln werden.

„Vielleicht wird dir TikTok genommen. Aber dann gehst du auf . Oder du gehst auf Discord und fängst an, mit Leuten dort zu sprechen“, sagte er. „Das ist eines der herausfordernden Dinge … Kinder sind super schlau und werden sich also um die Hindernisse herumarbeiten.“

Boeldt verwies auf die kürzliche Ankündigung von Instagram, dass es bald beginnen wird, Konten, von denen es annimmt, dass sie Kindern gehören, auf Selbstverletzungssprache zu überwachen. Eltern würden eine Benachrichtigung erhalten, wenn ihre Kinder wiederholt nach Suizid- oder Selbstverletzungstermen auf der Plattform suchen. Dieser Schritt kommt, während Instagram’s Mutterunternehmen beschuldigt wird, eine soziale Medienumgebung zu schaffen, die bewusst junge Nutzer schädigt und süchtig macht.

„Diese Benachrichtigungen sind so konzipiert, dass Eltern darüber informiert werden, wenn ihr Teenager wiederholt danach sucht, diesen Inhalt zu finden, und ihnen die Ressourcen zu geben, die sie benötigen, um ihren Teenager zu unterstützen“, sagte das Unternehmen in einer Pressemitteilung.

Allerdings umgehen Kinder bereits die Zensur auf sozialen Medienplattformen wie TikTok und Instagram, indem sie Wörter wie „unalive“ verwenden oder sich auf „PDF-Dateien“ beziehen, um andere, sinisterere Dinge zu bezeichnen.

Dies stellt ein Problem dar, sagte Boeldt, da jeder Versuch, Kinder davon abzuhalten, bestimmte Begriffe zu verwenden, einfach eine neue Wortschatzschicht schaffen und verbreiten wird, was wiederum einen neuen Versuch zur Überwachung dieser Sprache erforderlich machen wird und unweigerlich zu einem endlosen Kreislauf führen wird.

„Als ich diese Dinge auf Instagram und Selbstverletzung sah, dachte ich sofort: ‚Wie gut ist ihr Modell? Wie gut werden sie das erkennen?‘“, fügte er hinzu.

Boeldt glaubt, dass staatliche Vorschriften die einzige Möglichkeit sind, Unternehmen tatsächlich dazu zu zwingen, die Sicherheit ihrer Online-Nutzer zu gewährleisten. „Diese Unternehmen werden nicht an einen bestimmten Standard gehalten“, der Kinder davon abhalten würde, auf ihre Plattformen zuzugreifen – und vor allem profitieren diese Unternehmen von Kindern auf ihrer Plattform. Mehr Leute, mehr Anzeigen.“

„Am Ende des Tages kostet das tatsächlich viel Geld und Ressourcen.“

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.