Австралійський орган з нагляду за інтернетом заявив, що найбільші світові соціальні мережі, як і раніше, «закривають очі» на матеріали із сексуальним насильством над дітьми, розміщені на їхніх платформах, і зазначив, що YouTube, зокрема, не відповідає на його запити, пише Reuters.
У звіті, опублікованому в середу, комісар з електронної безпеки заявив, що YouTube, поряд з Apple, не відстежує кількість повідомлень від користувачів про сексуальне насильство над дітьми, що з'являються на їхніх платформах, а також не може сказати, скільки часу йде на реагування на такі повідомлення.
Минулого тижня австралійський уряд вирішив включити YouTube в свою першу в світі заборону на соціальні мережі для підлітків, слідуючи пораді eSafety скасувати заплановане виключення для відеохостингу Google, що належить Alphabet.
«Коли ці компанії діють самостійно, вони не приділяють пріоритетної уваги захисту дітей і, ймовірно, закривають очі на злочини, що скоюються на їхніх сервісах», — заявила комісар з електронної безпеки Джулі Інман Грант.
«Жодна інша галузь, орієнтована на споживачів, не отримала б ліцензію на діяльність, що дозволяє скоювати такі огидні злочини проти дітей на своїх об'єктах або в своїх сервісах».
Google раніше заявляла, що матеріали, пов'язані з насильством, не мають місця на її платформах і що вона використовує ряд стандартних для галузі методів для виявлення та видалення таких матеріалів. Meta (власник Facebook, Instagram і Threads) заявляє, що забороняє відео з відвертими сценами.
Комісар eSafety зобов'язав Apple, Discord, Google, Meta, Microsoft, Skype, Snap і WhatsApp звітувати про заходи, які вони вживають для боротьби з експлуатацією дітей і матеріалами, пов'язаними з насильством над дітьми, в Австралії.
У звіті про їхні відповіді на даний момент виявлено «низку недоліків у безпеці їхніх послуг, які збільшують ризик появи матеріалів і діяльності, пов'язаних із сексуальною експлуатацією та насильством над дітьми, в цих послугах».
До недоліків у сфері безпеки належать нездатність виявляти та запобігати прямим трансляціям таких матеріалів або блокувати посилання на відомі матеріали, пов'язані з насильством над дітьми, а також неадекватні механізми подання скарг.
У звіті також зазначається, що платформи не використовують технологію hash matching (порівняння хешів) у всіх частинах своїх сервісів для виявлення зображень сексуального насильства над дітьми шляхом їх перевірки за базою даних. Google раніше заявляла, що її заходи щодо боротьби з насильством включають технологію hash matching і штучний інтелект.
Австралійський регулятор заявив, що деякі провайдери не внесли поліпшень для усунення цих прогалин у безпеці своїх сервісів, незважаючи на те, що він попереджав їх про це в попередні роки.
«У випадку сервісів Apple і YouTube від Google вони навіть не відповіли на наші запитання про те, скільки повідомлень від користувачів вони отримали про сексуальне насильство над дітьми на своїх сервісах, а також про те, скільки співробітників з питань довіри та безпеки Apple і Google мають у штаті», — сказала Інман Грант.