2 minutos de leitura

Apple encara processo de US$ 1 bilhão por desistência de ferramenta contra abuso infantil no iCloud

base-logo.jpg
9 de dezembro de 2024

"Apple é processada em US$ 1 bi por abandonar projeto de identificação de CSAM no iCloud, visando privacidade dos usuários."

A Apple está em um grande problema nos Estados Unidos. Uma mulher de 27 anos, vítima de abuso, acusa a empresa. Ela diz que a Apple não usou uma ferramenta chamada NeuralHash para parar o abuso.

Essa ferramenta foi anunciada em 2021, mas a Apple a abandonou em dezembro de 2022. Isso, segundo a mulher, deixou as imagens abusivas circulando livremente.

O processo pede mais de US$ 1,2 bilhão. Cada uma das 2.680 vítimas pode receber pelo menos US$ 150 mil. Isso mostra o tamanho do problema.

Enquanto isso, a Apple enviou apenas 267 relatórios ao NCMEC em 2020. Isso é muito menos do que Google e Facebook, que enviaram mais de um milhão de relatórios.

Contexto do Processo Judicial contra a Apple

A Apple anunciou em 2021 uma ferramenta para monitorar fotos no iCloud. Ela buscava encontrar material de abuso sexual infantil. Mas, a empresa cancelou o projeto, gerando preocupações sobre a segurança online.

Esse cancelamento levantou debates sobre direitos dos usuários e responsabilidade das grandes empresas. A segurança das crianças foi um dos pontos focados.

Desistência da Ferramenta de Monitoramento

A ferramenta de monitoramento era uma inovação para a segurança digital. Mas, a Apple desistiu após críticas. Esse cancelamento pode ter aumentado os abusos.

Em 2020, a Apple enviou apenas 267 relatórios ao NCMEC. Isso é muito menos que o que Google e Facebook enviaram.

Motivações da Ação Judicial

Uma mulher não identificada, vítima de abuso na infância, movimentou o processo judicial. Ela representa um grupo de até 2.680 vítimas. A ação busca reparações financeiras e responsabilidade da Apple.

As indenizações podem chegar a US$ 1,2 bilhão. Cada vítima tem direito a pelo menos US$ 150 mil. A ação mostra a importância de monitorar abuso sexual infantil e proteger as crianças.

Impacto nas Vítimas

O impacto nas vítimas é muito grande. Sem uma ferramenta para detectar CSAM, crianças estão mais expostas. Materiais criminosos ainda estão disponíveis e acessíveis.

Enquanto outras empresas reportaram mais de um milhão de casos, a Apple reportou apenas 267. Isso mostra que a Apple não está fazendo o suficiente para proteger as crianças.

Argumentos dos Réus

Os argumentos dos réus focam na privacidade. A Apple acredita que proteger os dados dos usuários é mais importante. Ela diz que usar tecnologia de monitoramento pode colocar todos os usuários em risco.

A decisão de parar a detecção de abuso infantil no iCloud em 2022 foi por causa de preocupações. Especialistas alertaram sobre o uso inadequado da tecnologia por agentes governamentais.

Reações ao Abandono da Tecnologia NeuralHash

A Apple decidiu parar com a tecnologia NeuralHash. Ela era para encontrar fotos e vídeos de abuso infantil no iCloud. Muitos especialistas em segurança estão criticando essa decisão.

Eles dizem que essa tecnologia poderia ter ajudado muito. Ela poderia ter protegido crianças e cuidado com a privacidade dos usuários.

Críticas de Especialistas em Segurança

Os especialistas acham que a tecnologia NeuralHash era uma boa ideia. Ela seria segura e não invadiria a privacidade das pessoas. Mas a Apple decidiu parar por causa de preocupações com abusos.

Essa decisão fez muita gente se preocupar com a segurança online. Eles temem que a segurança digital vá piorar. A Apple notificou apenas 267 casos de abuso infantil em 2020. Isso é muito menos do que Google e Facebook notificam.

Categorias

Comentários