Este blogue convidado é de John Carr, unha das principais autoridades mundiais no uso de internet de nenos e mozos e as novas tecnoloxías asociadas. Nela expón o probable (devastador) impacto da proposta de Facebook para cifrar as súas plataformas e privar así ás axencias de protección da infancia de poder detectar e eliminar material de abuso sexual infantil no futuro.

Presentamos outros blogs de John en Verificación de idade, Tapando, Ea WeProtect Global Alliance.

O pasado mércores o Centro Nacional dos Nenos Desaparecidos e Explotados (NCMEC) publicou os seus números para 2020. 16.9 millóns de informes recibidos en 2019 creceron a 21.7 millóns en 2020. Isto supera o 25%. As plataformas de mensaxería seguen a ser a maior fonte.

21.4 millóns dos informes de 2020 procederon directamente das propias empresas en liña, o saldo dos membros do público. Este último supón un triplo aumento con respecto a 2019. Sorprendentemente, houbo un aumento interanual de case o 100% nos informes de atracción en liña. ¿Unha consecuencia dos peches a gran escala en todo o mundo? Probablemente.

Os 21.7 millóns de informes, entre outras cousas, contiñan 31,654,163 ficheiros de vídeo e 33,690,561 ficheiros que contiñan imaxes fixas. Un único informe pode facer referencia a máis dun elemento.

Así, dentro do número total de informes hai un foco abafador no tratamento de imaxes ilegais dun tipo ou outro, pero os 120,590 "Outros ficheiros"  que aparecen no cadro de NCMEC tamén representan serias ameazas para os nenos.

Con 2,725,518 informes, India volve encabezar unha vez máis a lista de países. Filipinas, Paquistán e Alxeria veñen despois, moi atrás, pero aínda por riba do millón.

¿Boas novas ou malas? 

As persoas que se opoñen ao escaneo proactivo de abuso sexual infantil en plataformas de mensaxería ás veces apuntan a estas cifras e din que sempre están subindo, demostra que o escaneo non é un elemento disuasorio útil. Algúns din que incluso deberiamos chamar a política "Un fracaso".

Debido a que os criminais se negan firmemente a completar declaracións anuais declarando fielmente o que fixeron o ano pasado mentres expoñían os seus plans para os próximos 12 meses, nunca soubemos e nunca podemos saber canto csam é, foi ou é probable que estea por aí, ou cantos intentos ou se farán para involucrar aos nenos en liña dun xeito sexualmente abusivo. Os novos números de NCMEC poderían, por tanto, simplemente dicirnos que melloramos a detección. O que definitivamente non fan é proporcionar un mandato para abandonar esta área de loita contra o crime, desertando das vítimas, declarando a vitoria dos maltratadores de nenos e a inmanejabilidade do espazo en liña.

Mellores ferramentas

As ferramentas que dispoñemos agora son mellor que antes e están a ser empregadas de xeito máis amplo e enerxético. E, por suposto, hai máis usuarios de internet este ano que o ano pasado. É obrigado que haxa unha parte do aumento atribuíble unicamente a este tipo de crecemento orgánico. Pódese esperar que continúe durante algún tempo a medida que a dispoñibilidade de wifi e banda ancha amplíase e cada vez máis do mundo vai en liña.

En calquera área do delito, detectar e abordar o comportamento delituoso despois do suceso é ou debería ser sempre só unha parte dunha estratexia máis ampla na que sempre se prefire a prevención a través da educación e a sensibilización. Pero a idea de que debe negarse a tratar de mitigar os efectos do comportamento delituoso onde queira que poida é insultante e insulta aos nenos vítimas. As accións falan máis alto que as palabras e ningunha acción fala aínda máis.

Mentres tanto na UE

A semana anterior NCMEC estatísticas publicadas mostrando informes recibidos dos Estados membros da UE foron abaixo nun 51% desde decembro de 2020. Esta foi a data na que entrou en vigor o Código europeo de comunicacións electrónicas.

Confronta a un global global subir ao informar, o medo debe ser, polo tanto, ao informar unha porcentaxe caer nos informes dos Estados membros da UE, os nenos europeos poden estar a peor que os nenos doutras partes do mundo. Comisario Johansson apuntou na UE hai 663 informes por día non facéndose que doutro xeito sería. Iso sería certo se o nivel de informes se mantivera constante. Evidentemente iso non é así, o que significa que o número real de denuncias de ausencia probablemente estará ao norte de 663.

E aínda así o Parlamento Europeo paraliza o proceso de reforma.

Facebook en manobras

Lembremos o pasado decembro cando estreou o novo Código. Facebook, unha empresa notoriamente litixiosa e combativa, decidiu que rompería filas cos líderes da industria ao deixar de escanear por abuso sexual infantil. Facebook puido loitar contra el ou, como os seus colegas, ignoralo. Tampouco o fixeron.

Os cínicos suxeriron que a decisión da compañía de rodar coma un obediente cachorro inspirouse no desexo de abrir o camiño á súa declarada ambición de introducir un cifrado forte a Messenger e Instagram Direct. Se non hai ningunha forma legal de escanear plataformas de mensaxería, xa sexa que as plataformas estean cifradas ou case deixan de importar.

A decisión de Facebook de decembro pareceu certamente lexitimar a oposición de grupos que sempre estiveron en contra de buscar contido e comportamento que ameazan aos nenos.

A efrontería dos negocios que máis abusan da privacidade da historia do Planeta Terra realizan unha completa volta, e facelo a costa dos nenos e dos cidadáns que cumpren a lei en xeral, quítalle o alento. Ningunha palabra cálida pode lavalo.

Manteña ese pensamento por un momento.

Unha cuestión de tempo?

Facebook realizou recentemente investigacións sobre actividades de abuso sexual infantil nas súas plataformas. Os resultados acaban de ser publicado nun blogue.

Houbo dous estudos separados. Ambos suscitan dúbidas ou cuestionan o valor da exploración proactiva para protexer aos nenos.

Esta é unha ruptura radical co pasado de Facebook. Con orgullo e reiteradas ocasións declaraban o seu compromiso coa exploración proactiva de contido e actividade que ameaza aos nenos. De feito, no seu haber, seguiron analizando os sinais de persoas susceptibles de autolesionarse e suicidarse. Aínda que como cadran iso co que están a facer en relación cos abusos sexuais infantís elúdeme momentaneamente.

Quen podería estar en contra da investigación? Eu non. Pero os mesmos cínicos aos que me referín antes non tardaron en sinalar que o momento do lanzamento desta investigación fai que se pregunte se se fixo co máis puro dos motivos. A xente que realmente fixo o traballo ou que decidiu cando publicar parou para preguntarse se estaban a ser manipulados?

Unha sorpresa

O primeiro dos dous estudos descubriu que en outubro e novembro de 2020 o 90% de todo o contido atopado na súa plataforma e informou a NCMEC de material relacionado que era idéntico ou moi similar ao material informado anteriormente.

Quen traballamos no campo durante moito tempo pode sorprendernos de que chegase ata o 90%. Sempre entendera que a porcentaxe de repeticións estaría nos 90 altos. As altas porcentaxes mostran que as ferramentas proactivas están a facer o seu traballo. É por iso que o seu uso continuado é tan importante, especialmente para as vítimas representadas nas imaxes. O feito de que se repita unha imaxe só subliña e magnifica o dano que se lle está causando ao neno. O máis seguro é que non o diminúe.

As vítimas poden e deben afirmar Seu dereito legal á intimidade e á dignidade humana. Queren que desaparecen todas as instancias da imaxe, non importa cantas veces ou onde apareza.

Publicando un número como "Máis do 90%" sen explicar este tipo de contexto é probable que leve a un observador mal informado, por exemplo, alguén que ten présa con moitos papeis para ler, a preguntarse de que vai todo o alboroto?

Nótese no informe de NCMEC que se refiren a recibir informes de 10.4 millóns único imaxes. Isto distíngueno especificamente das repeticións. Foron as repeticións que nos pedimos crer que representan o 90% da carga útil na investigación de Facebook.

Máis impresións potencialmente enganosas

No mesmo blogue e referíndose ao mesmo estudo Facebook segue dicíndonos "só seis ”os vídeos eran responsables máis da metade ” de todos os informes que fixeron a NCMEC. A pregunta obvia é ademais de especular sobre cantos vídeos compuxeron a outra metade "E o teu punto de vista?"  

A miña suposición é o que quedará na mente das persoas ocupadas "Seis".  Seis e 90%. Números de titulares. Ollo a que se repitan, ben sabes quen.

O segundo estudo

Tomando un período de tempo diferente (por que?), Xullo-agosto, 2020 e xaneiro de 2021, e unha cohorte diferente, moito menor (só 150 contas), fálannos das persoas que cargaron csam que se informaron a NCMEC 75% fíxoo sen aparente "intención maliciosa ”.  Pola contra, a investigación suxire que as persoas que cometeron o delito de subir csam actuaron fóra dun "Sentido de indignación" ou porque lles pareceu divertido. 75%. Ese é outro número de título que quedará e repetirase.

Quizais haxa un papel nalgún lugar que explique como Facebook concluíu que non "Intención maliciosa". Non o atopo. Pero non é difícil descubrir o efecto neto das distintas manobras autoservidas de Facebook.

O público obxectivo son os políticos e os xornalistas

No momento en que Facebook quere que a xente - e con isto quero dicir principalmente políticos e xornalistas - en Europa, Estados Unidos e noutros lugares, comece a pensar que o problema do abuso sexual infantil en liña é diferente e moito menor do que se crían anteriormente e que substancialmente débese á (excusable?) idiotez humana.

Con todo, a verdade inalterable é que hai que desaparecer as imaxes. Ese é o principio e o final. Se temos os medios para desfacernos de imaxes ilegais de dor e humillación dos nenos, por que non? Por que, en vez diso, os ocultaríamos deliberadamente? O diñeiro é a única resposta que podo dar e non é o suficientemente boa.

Pobres substitutos

Na terceira parte do mesmo blog Facebook fálanos doutras cousas que pensa facer. Abordarán a aparente falta de bo gusto nas bromas ou a súa estupidez.

Ata agora chegaron a dúas ventás emerxentes. Bravo. Facebook debería apagalos de calquera xeito. Ningún dos dous está preto de compensar os seus plans de cifrado. En calquera outro campo da vida, se un grupo de persoas se combinaban para ocultar probas de crimes, creo que sería arrestado e acusado de conspiración para obstruír o curso da xustiza.

Os números de Facebook no 2020

Os resultados da investigación de Facebook saíron no medio da fila na UE. Estiveron ben en contra da publicación dos novos números de NCMEC.

En 2019 NCMEC recibiu 16,836,694 informes dos cales 15,884,511 (o 94%) procedían de plataformas propias de Facebook. En 2020 dos 21.7 millóns, 20,307,216 procedían das distintas plataformas de Facebook (93%).

Aínda que son extremadamente crítico con Facebook non debemos esquecer dous importantes clasificatorios. Son de lonxe a maior plataforma no espazo das redes sociais. E só sabemos moito deles porque hai datos dispoñibles. Isto débese a que as súas dúas principais aplicacións de mensaxería, Messenger e Instagram Direct, aínda non están cifradas.

Polo tanto, ten que preguntarse que está a suceder noutras plataformas de mensaxería que xa están cifrando os seus servizos e que case non poden producir datos. En realidade, non é necesario que nos estrañemos tanto.

Unha ollada detrás dunha porta cifrada

O venres pasado O Times  revelou en 2020 a policía do Reino Unido recibiu 24,000 propinas de Facebook e Instagram. Pero só 308 de WhatsApp. WhatsApp xa está cifrado.

con 44.8 millón de usuarios o Reino Unido ten o terceiro maior número de clientes de Facebook no mundo por detrás de India e Estados Unidos. Instagram ten 24 millóns de usuarios no Reino Unido. Obviamente, é probable que haxa unha gran superposición con Facebook e as súas aplicacións Messenger e Instagram. WhatsApp ten 27.6 millóns de usuarios no Reino Unido.

É imposible dicir cal é o número de WhatsApp "Debería ser" - demasiados imponderables- pero a relación de 308: 24,000 semella un pouco desviada. Se cabe, esperarías que o tráfico de imaxes ilegais sexa maior en WhatsApp precisamente porque xa está cifrado. Pense niso.