23/10/21
 
 
A luta da Apple contra o abuso sexual de menores

A luta da Apple contra o abuso sexual de menores

AFP Maria Moreira Rato 11/08/2021 20:35

A multinacional fundada por Steve Jobs implementará medidas de combate à pornografia infantil. “O equilíbrio entre privacidade e proteção dos menores pode ser alcançado se for possível garantir, com elevado grau de certeza, que não haverá falsos positivos na identificação de conteúdo de teor pedo-pornográfico”, esclarece o advogado e professor universitário David Silva Ramalho.

A Apple anunciou, na passada quinta-feira, um conjunto de medidas que implementará com iOS 15, iPadOS e macOS 12 Monterey para proteger as crianças: um sistema triplo de mais informações por meio da Siri, uma monitorização do conteúdo do iCloud Fotografias para detetar abuso sexual de menores e um sistema de prevenção contra imagens explícitas na aplicação Mensagens (iMessage) para utilizadores com idades inferiores a 13 anos. No entanto, a privacidade dos utilizadores tem sido questionada.

“Na Apple, o nosso objetivo é criar tecnologia que capacite as pessoas e enriqueça as suas vidas – ao mesmo tempo que as ajuda a manterem-se seguras. Queremos ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-las e explorá-las e limitar a disseminação de pornografia infantil”, começou por explicar a multinacional norte-americana no seu site oficial. 

Relativamente ao primeiro tópico, a empresa esclareceu que fornecerá recursos adicionais para ajudar as crianças e os pais a manterem-se seguros online e a obter auxílio em situações inseguras. Por exemplo, se perguntarem à Siri como é que podem denunciar abuso sexual de menores ou exploração infantil, serão direcionados para uma página que os informa acerca da realização de denúncias. Por outro lado, se forem levadas a cabo pesquisas sobre pornografia infantil, os utilizadores lerão um texto onde podem ler que “o interesse neste tópico é prejudicial e problemático” e ser-lhes-ão fornecidos recursos para obterem auxílio.

Naquilo que diz respeito ao iCloud, a Apple tentará que sejam detetadas imagens de menores de idade em bibliotecas de fotografia no mesmo. Este sistema permitirá enviar a informação aos organismos competentes – como o National Center for Missing and Exploited Children, numa tradução livre, Centro para as Crianças Desaparecidas e Exploradas – caso sejam detetadas imagens que violem a lei. Como, por exemplo, pornografia infantil, entre outros abusos a crianças.

O sistema executará a correspondência no dispositivo usando um banco de dados de hashes de imagens de abuso sexual de menores fornecidos pelo centro suprarreferido e outras organizações de segurança infantil. “A Apple transforma ainda esse banco de dados num conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários”, isto é, cada componente das fotografias é analisada e existe somente uma hipótese em mil milhões por ano de marcar incorretamente determinado conteúdo. “Esse processo de correspondência é alimentado por uma tecnologia criptográfica chamada interseção de conjuntos privados, que determina se há uma correspondência sem revelar o resultado”, revelou a Apple.

Por último, o novo sistema de segurança de comunicações iMessage detetará e bloqueará imagens explícitas recebidas em conversas de crianças menores de 13 anos. Ao receber este tipo de conteúdo, a fotografia ficará desfocada e a criança será avisada, beneficiará de acesso a “recursos úteis” e poderá assegurar-se “de que está tudo bem se não quiser ver esta foto”. Como precaução adicional, a criança também pode ser informada de que, para ter certeza de que está segura, os seus pais receberão uma mensagem se a virem. Um sistema de proteção similar encontra-se disponível se um menor tentar enviar fotografias sexualmente explícitas, pois será avisada antes do envio da foto e os pais poderão receber uma mensagem se a criança decidir prosseguir com a partilha.

Proteção das crianças versus proteção de dados Esta decisão tem gerado controvérsia. Há uma semana, o especialista em criptografia Matthew Green, professor na Universidade Johns Hopkins, no estado do Maryland, nos EUA, disse que “esta é uma ideia realmente má”, num tweet partilhado na sua conta oficial do Twiiter. “Este tipo de ferramentas pode ser uma vantagem para encontrar pornografia infantil nos telefones das pessoas, mas imaginemos o que isso poderia fazer nas mãos de um Governo autoritário?”, questionou, porém, a Apple não respondeu imediatamente a um pedido de comentário. O docente teme que a Apple eventualmente expanda o sistema para analisar imagens no iMessage, o sistema de mensagens criptografado de ponta a ponta da empresa, e, com isso, possa afetar “pessoas inocentes” e não somente aquelas que cometem os crimes anteriormente mencionados.

Porém, a tecnologia não é recente. “Pelo menos como está anunciada, não parece divergir muito do PhotoDNA, utilizado pela Microsoft, pelo Facebook e pelo Google há já vários anos, também para identificar conteúdo de pornografia infantil em áreas de utilizador privadas”, elucida David Silva Ramalho, advogado, associado principal na equipa de Contencioso Criminal, Risco e Compliance da Morais Leitão. “A ideia que lhe subjaz é haver um mecanismo para scanear conteúdo armazenado em clouds ou trocado em aplicações de Instant Messaging para identificar se certas imagens – previamente identificadas - estão a ser trocadas através daquelas plataformas”, adiciona, lembrando que “são, aliás, vários os casos da jurisprudência norte-americana que envolvem o uso desta tecnologia. Só nos últimos anos podemos identificar os casos United States v. Rosenschein, United States v. Bohannon ou o recentíssimo United States v. Bebris”.

“Geralmente, a plataforma identifica as imagens, comunica-as ao National Center for Missing and Exploited Children e esta entidade comunica-as às autoridades competentes para que a investigação seja iniciada. A principal diferença para a tecnologia anunciada pela Apple, para além do modo de identificação das imagens (que ainda não é claro), é a circunstância de ser aplicável também em dispositivos móveis. Mas a Apple hoje em dia já faz essa filtragem no iCloud”, esclarece o profissional especializado em cibercrime e prova digital e assistente convidado na Faculdade de Direito da Universidade de Lisboa.

Reconhece que “não é claro se esta tecnologia está na origem de alguma denúncia recebida em Portugal, mas a verdade é que existe um protocolo informal de cooperação com o NCMEC”, salientando que “de acordo com dados do Gabinete de Cibercrime junto da Procuradoria-Geral da República, só em 2018 foram recebidas pelo Departamento Central de Investigação e Ação Penal 23.963 participações do NCMEC sobre crimes de pornografia infantil” e, deste modo, não ficaria surpreendido se “várias tivessem como origem a utilização do PhotoDNA”.

“Não tenho motivos para suspeitar que a Apple utilizará esta informação para qualquer outra finalidade que não o combate à pornografia infantil ou a protecção de menores”, diz quando questionado acerca da possibilidade de a Apple só recorrer a estas ferramentas em casos de abuso sexual de menores. “É evidente que a possibilidade técnica existe – e existe, diria, independentemente do anúncio da utilização desta tecnologia para fins de combate à pornografia infantil – mas a verdade é que o escrutínio público será tão grande, tal como é já com o PhotoDNA, que me parece demasiadamente arriscado o recurso a esta tecnologia para outros fins”, clarifica o também pós-graduado em Direito e Cibersegurança e mestre em Ciências Jurídico-Criminais.

Entre as várias vozes que têm apoiado a iniciativa da Apple, encontra-se a presidente da Thorn – organização criada em 2012 pelos atores Ashton Kutcher e Demi Moore com o objetivo de compreender o papel da tecnologia na facilitação do tráfico humano e exploração sexual infantil –, Julia Cordua, que considerou que a tecnologia da Apple pondera “a necessidade de privacidade com a segurança digital das crianças”. Será que este equilíbrio poderá ser facilmente encontrado ou existirão obstáculos? Para Silva Ramalho, “o equilíbrio entre privacidade e proteção dos menores pode ser alcançado se for possível garantir, com elevado grau de certeza, que não haverá falsos positivos na identificação de conteúdo de teor pedo-pornográfico e que a identificação desse conteúdo não implica a devassa do restante conteúdo dos dispositivos móveis, desde logo por ser feito de forma automatizada, sem intervenção humana e através de match entre propriedades de imagens previamente identificadas e propriedades de ficheiros identificados nos smartphones”.

Naquilo que concerne o Direito, em território nacional, “não há um regime específico para a recolha de prova por entidades privadas. E não há um regime que preveja os casos em que a prova recolhida por particulares pode ser utilizada por entidades públicas”. Por isso, o investigador no Centro de Investigação em Direito Penal e Ciências Criminais (CIPDCC) e associado do Instituto de Direito Penal e Ciências Criminais (IDPCC) adianta que “o entendimento maioritário vai no sentido de que as proibições de prova aplicáveis a entidades públicas também o são a particulares, e a prova recolhida através da prática de crimes não pode valer em processo penal. Isto para dizer que a prova recolhida por esta via será válida se não violar regras sobre proibições de prova ou normas criminais”, realça. “Neste caso, existe a dificuldade resultante de estes instrumentos não encontrarem ainda consagração legal e, por isso, de se situarem numa área pouco clara do direito. No entanto, a verdade é que a sua utilização é feita com o consentimento prévio do titular da informação, o que resolve grande parte dos problemas que se possam colocar”, constata, concluindo que “o tema é muito complexo e existem muitas variáveis que, em cada caso, permitirão fazer uma análise mais completa sobre a sua licitude”.

Ler Mais


Especiais em Destaque

×

Pesquise no i

×