Безпека дітей в інтернеті: ЄС посилює вимоги до онлайн-платформ

16.12.2025

У Європі активно працюють над вдосконаленням правил для онлайн-платформ, спрямованих на захист молодого покоління від негативного впливу цифрового середовища. Так, у Німеччині Комісія із захисту молоді в медіа (KJM) ставить своїм завданням захищати дітей від контенту, який не відповідає їхньому віку. А Європейська Комісія звернулася до великих онлайн-компаній, таких як Snapchat, YouTube, Apple та Google, з вимогою надати інформацію про їхні системи перевірки віку та заходи, що запобігають доступу неповнолітніх до шкідливого або незаконного контенту. Це частина ширших зусиль Комісії щодо забезпечення безпеки дітей та підлітків в інтернеті.

«Платформи зобов’язані забезпечувати безпеку неповнолітніх на своїх сервісах – чи за допомогою заходів, прописаних у керівних принципах щодо захисту неповнолітніх, чи за допомогою не менш ефективних заходів на власний вибір», – сказала виконавча віцепрезидентка Європейської Комісії з питань технологічного суверенітету Хенна Віркуннен.

У Snapchat запитують інформацію про заходи, які застосовує компанія для недопущення доступу дітей віком до 13 років до її сервісів, що заборонено власними правилами користування платформи. Також ЄК запитує інформацію про механізми, які запобігають продажу неповнолітнім незаконних товарів, зокрема вейпів чи наркотиків.

Щодо YouTube, окрім даних про систему перевірки віку користувачів, Комісія вимагає додаткову інформацію про систему рекомендацій у зв’язку з повідомленнями про поширення серед неповнолітніх шкідливого контенту.

У Apple App Store і Google Play Комісія запитує, яким чином ці сервіси управляють ризиками, що користувачі, зокрема неповнолітні, можуть завантажувати незаконні або потенційно шкідливі застосунки, у тому числі програми для азартних ігор чи інструменти для створення несанкціонованого сексуалізованого контенту – так звані nudify apps. Також Комісія прагне з’ясувати, як обидва сервіси використовують вікові рейтинги застосунків.

Задля забезпечення ефективного виконання Керівних принципів щодо захисту неповнолітніх на всіх платформах – як великих, так і малих – Комісія спільно з національними органами влади реалізує додаткові дії для виявлення платформ, що становлять найбільший ризик для дітей.

Також ЄК вживає інших заходів для убезпечення дітей в інтернеті.

Перевірка дотримання Закону про цифрові послуги (DSA) стосуватиметься і менших онлайн-платформ. Будуть визначено ті, які становлять найбільший ризик для дітей, і перевірено дотримання ними необхідного високого рівня безпеки дітей.

Керівні принципи щодо захисту неповнолітніх уже доступні всіма 24 офіційними мовами ЄС. Згодом будуть доступні подальші переклади. Наразі ще й доступна спрощена для користувача версія англійською мовою, яка у більш доступній формі для дітей, сімей, освітян та зацікавлених сторін ілюструє основні висновки керівних принципів.

Також Європейська Комісія опублікувала другу вдосконалену версію правил перевірки віку. Вона запроваджує такі додаткові функції, як використання паспортів і посвідчень особи для реєстрації.

Водночас окремі європейські країни також вживають заходів для захисту юного покоління від шкідливого контенту в медіа. Так, Комісія із захисту молоді в медіа (KJM) Німеччини ставить своїм завданням захищати дітей від контенту, який не відповідає їхньому віку. Дані дослідження 2024 року свідчать про те, що 54% дітей віком від 6 до 13 років, які користуються інтернетом, щодня перебувають онлайн. А тому комісія оцінила ефективність деяких систем перевірки віку, які вважаються головними для дієвого захисту молоді в медіа.

KJM оцінила такі рішення з перевірки віку:

  • «AgeVerif» від PlanetSeason Lda (повна система),
  • «Ver.iD» від Subst.id B.V. (модуль),
  • «VOVE ID» від VOVE ID Inc. (модуль).

Після перевірки поданих концепцій комісія дійшла висновку, що у представленій версії та при відповідному впровадженні вони є придатними як повна концепція перевірки віку або як часткові рішення у сфері ідентифікації та автентифікації відповідно до критеріїв комісії.

Крім того, Швейцарія, яка не є членом Європейського Союзу, має намір посилити права користувачів у цифровому просторі і зобов’язати дуже великі онлайн-платформи й пошукові системи діяти більш справедливо та прозоро. Новий закон має визначити основні правила для таких сервісів, як Facebook, X (колишній Twitter), TikTok та Google, і закріпити їх на законодавчому рівні. Федеральна рада Швейцарії прагне протидіяти таким негативним впливам як поширення незаконного контенту на платформах і видалення публікацій користувачів за непрозорими критеріями, що негативно впливає на публічну комунікацію і формування громадської думки в країні.

До відома, в Україні діяльність онлайн-платформ не регулюється окремим актом, радше правове регулювання окремих сфер – захисту персональних даних, поширення забороненого контенту, безпеки та конфіденційності тощо – відбувається відповідно до низки законів.

Стосовно шкідливого для дітей контенту, то питання визначення критеріїв віднесення інформації до такої, що може заподіяти шкоду фізичному, психічному або моральному розвитку дітей, належить до компетенції органів спільного регулювання. Наразі орган співрегулювання у сфері аудіовізуальних медіа працює над кодексом правил створення і поширення інформації для захисту дітей від шкідливого контенту.


Перейти до вмісту