Neste blogue convidado do noso compañeiro John Carr tráenos algunhas boas novas sobre os últimos movementos de Apple que axudarán a protexer aos nenos da explotación sexual en internet. Podes atopar todos os blogs de John en Deseada.

“Houbo unha gran alegría pola sede global de ECPAT International en Bangkok. A semana pasada o traballo que estivemos a facer cos nosos socios en torno ao forte cifrado recibiron un enorme impulso cando Apple fixo un anuncio de enorme importancia sobre os seus plans para manter a seguridade dos nenos en liña. Non a todos lles gusta pero encántanos.

O gato está fóra da bolsa

O gato agora está definitivamente fóra da bolsa. Apple confirmou unha disputa central avanzada por ECPAT. Hai solucións escalables dispoñibles que non rompen o cifrado, que respectan a privacidade dos usuarios e que ao mesmo tempo repercuten significativamente en certos tipos de comportamentos criminais, neste caso terribles delitos que prexudican aos nenos.

Se a xente cre que Apple ou os gobernos malévolos poderían facer un mal uso da tecnoloxía, ese é un punto moi importante, Hovever, é outro diferente. Fala de como regulamos ou supervisamos Internet. Enfáticamente non é un argumento que permita ás empresas seguir sen facer nada para frear a ilegalidade onde existe tecnoloxía que lles permita facelo. Igualmente non é un argumento para que Apple o faga "Desinventar" o que xa inventou. 

O que é é un argumento para que os gobernos e as lexislaturas se poñan ao día. Rapidamente. 

No mundo da tecnoloxía, as coartadas para a inacción sempre son grosas no chan. Apple debería ser aplaudida. Non só moveron a agulla, senón que lle deron un empurrón enorme e totalmente beneficioso. A compañía non se moveu rápido e rompía cousas. Levou o seu tempo e arranxounos.

Entón, que está a facer Apple?

Apple anuncio contiña tres elementos. A finais deste ano, na próxima versión do seu sistema operativo, primeiro nos Estados Unidos e despois país por país:

  1. Limita a capacidade dos usuarios para localizar material de abuso sexual infantil (csam) e avisa sobre contornos en liña que non son seguros para os nenos.
  2. Introduce novas ferramentas para axudar aos pais a axudar aos seus fillos a estar seguros en relación ás comunicacións en liña. En particular aviso sobre contido sensible que pode estar a piques de ser enviado ou recibido.
  3. Habilite a detección de csam en dispositivos individuais antes de que a imaxe entre nun ambiente cifrado. Isto fará imposible ao usuario subir csam ou distribuílo máis doutro xeito. 

O número tres é o que provocou un maior clamor.

Un cambiador de xogos

O simple feito de que unha empresa como Apple recoñece que ten a responsabilidade de actuar nesta área e que atoparon unha solución escalable, cambia fundamentalmente a natureza do debate. Agora xa sabemos algo lata ser feito o "Non é posible"a posición foi vencida. Calquera empresa en liña que rexeite cambiar as súas formas probablemente se atope no lado equivocado da opinión pública e, probablemente, a lei como lexisladores de todo o mundo agora se sentirá animada a actuar obrigar as empresas fagan o que Apple decidiu facer voluntariamente.

E toda a angustia?

Varios comentaristas que doutro xeito parecían expresar simpatía polo obxectivo declarado de Apple non puideron resistirse a intentar quitarlles o brillo golpe de teatro queixándose do way fixérono. 

Non obstante, en 2019, o anuncio unilateral de Facebook de que pretendía facer exactamente o contrario do que Apple propón agora suxire que a posibilidade de chegar a un consenso da industria era totalmente ilusoria.

Estou seguro de que moitos "é" hai que salpicalos, moitos "T" hai que cruzarse, pero ás veces sinto que cando se trata de protexer aos nenos todo ten que ser impecable para saír das trampas. Está ben que Big Tech se mova rápido e rompa as cousas en calquera outro lugar e as solucione despois ou non. Pero iso non se pode permitir que suceda neste departamento. Está ben innovar locamente, pero non aquí. Estamos xulgados por un estándar diferente.

Non me malinterpretes. Non estou a favor da imperfección. Non aplaudo a innovación que non presta atención á desvantaxe. 

A verdade sinxela, sen embargo, é que todo este negocio versou sobre valores e prioridades. É totalmente binario. Ou cres que deberían tomarse medidas para minimizar os riscos para os nenos antes de que o contido estea encriptado ou non. Non hai camiño medio porque cando está cifrado é invisible para sempre. Gañan os malos. Apple demostrou como perden.

Boas novas de Apple

O cifrado non está roto. Non se están a recompilar nin explotar novos datos

Nunha nova declaración emitida por Apple onte deixan moi claro que non están rompendo ningún tipo de cifrado. Tamén deixan claro que a súa tecnoloxía ten un alcance limitado e non a usarán para ningún outro propósito.

Se non cres que volvemos ao punto que falei antes. Discutamos iso, pero calquera que sexa o resultado da discusión pode ser Apple, debe permitirse e animarse a continuar. Agardo con ganas de escoitar a outras empresas que se comprometen a seguir os seus pasos. En breve ".

Carta en Financial Times

O 12 de agosto de 2021, John Carr tamén publicou unha carta sobre este asunto no Financial Times. Aplaudiu a decisión de Apple sobre os seus plans para limitar a posibilidade de que se distribúa material de abuso sexual infantil a través dos seus dispositivos ou rede. John tamén suxeriu que obrigará a Facebook a reconsiderar as súas malas intencións. O texto completo da carta é ...

"No seu artigo sobre os plans de Apple de introducir novas políticas de protección infantil, Richard Waters suxire que o xeito no que Apple seguiu isto" cortou o debate "sobre o impacto potencial das súas medidas previstas (Opinión, 10 de agosto). 

Especificamente Waters refírese ao plan de Apple para inspeccionar contido nos dispositivos dos usuarios antes de que se cargue e coloque nun ambiente fortemente cifrado como iCloud. Apple vai facelo para asegurarse de que a compañía non está a axudar e favorecer a distribución de material de abuso sexual infantil. 

Desafortunadamente o "debate" leva cinco anos polo menos e durante a maior parte dese tempo estivo completamente conxelado. As cousas intensificáronse cando, en marzo de 2019, Facebook anunciou (ía) facer exactamente o contrario ao que Apple propón agora. Esa tamén foi unha decisión unilateral empeorada porque, ao contrario que con Apple, estaba contra un fondo ben documentado de Facebook que xa sabía que as súas plataformas Messenger e Instagram Direct non cifradas actualmente estaban sendo explotadas masivamente con fins criminais. 

En 2020 houbo 20,307,216 informes ás autoridades norteamericanas de material de abuso sexual infantil que se intercambiaran por Messenger ou Instagram, pero Facebook ata o momento non deu ningún sinal de que remate. 

Hai que escoller

O argumento é, témome, binario. Unha vez que o material está fortemente cifrado, faise invisible para as forzas da orde, os tribunais e a propia empresa. Entón, ou estás disposto a vivir con iso ou non. Facebook é. Apple non o é. 

Non obstante, sospeito que a decisión de Apple obrigará a Facebook e a outros a reconsiderar. Hai solucións escalables dispoñibles que poden respectar a privacidade dos usuarios e, ao mesmo tempo, enfrontarse a polo menos certos tipos de comportamento criminal, neste caso terribles delitos que prexudican aos nenos.

Se a xente cre que Apple ou os gobernos malévolos poderían usar mal a tecnoloxía, ese é un punto importante pero diferente que fala de como regulamos ou supervisamos internet. Non é rotundamente un argumento que permita ás empresas seguir sen facer nada para frear a ilegalidade cando existe tecnoloxía que lles permita facelo. Apple debería ser aplaudida. Non só moveu a agulla, senón que lle deu un empurrón enorme e totalmente beneficioso ".