2 minutos de leitura
"Apple é processada em US$ 1 bi por abandonar projeto de identificação de CSAM no iCloud, visando privacidade dos usuários."
Índice
ToggleA Apple está em um grande problema nos Estados Unidos. Uma mulher de 27 anos, vítima de abuso, acusa a empresa. Ela diz que a Apple não usou uma ferramenta chamada NeuralHash para parar o abuso.
Essa ferramenta foi anunciada em 2021, mas a Apple a abandonou em dezembro de 2022. Isso, segundo a mulher, deixou as imagens abusivas circulando livremente.
O processo pede mais de US$ 1,2 bilhão. Cada uma das 2.680 vítimas pode receber pelo menos US$ 150 mil. Isso mostra o tamanho do problema.
Enquanto isso, a Apple enviou apenas 267 relatórios ao NCMEC em 2020. Isso é muito menos do que Google e Facebook, que enviaram mais de um milhão de relatórios.
A Apple anunciou em 2021 uma ferramenta para monitorar fotos no iCloud. Ela buscava encontrar material de abuso sexual infantil. Mas, a empresa cancelou o projeto, gerando preocupações sobre a segurança online.
Esse cancelamento levantou debates sobre direitos dos usuários e responsabilidade das grandes empresas. A segurança das crianças foi um dos pontos focados.
A ferramenta de monitoramento era uma inovação para a segurança digital. Mas, a Apple desistiu após críticas. Esse cancelamento pode ter aumentado os abusos.
Em 2020, a Apple enviou apenas 267 relatórios ao NCMEC. Isso é muito menos que o que Google e Facebook enviaram.
Uma mulher não identificada, vítima de abuso na infância, movimentou o processo judicial. Ela representa um grupo de até 2.680 vítimas. A ação busca reparações financeiras e responsabilidade da Apple.
As indenizações podem chegar a US$ 1,2 bilhão. Cada vítima tem direito a pelo menos US$ 150 mil. A ação mostra a importância de monitorar abuso sexual infantil e proteger as crianças.
O impacto nas vítimas é muito grande. Sem uma ferramenta para detectar CSAM, crianças estão mais expostas. Materiais criminosos ainda estão disponíveis e acessíveis.
Enquanto outras empresas reportaram mais de um milhão de casos, a Apple reportou apenas 267. Isso mostra que a Apple não está fazendo o suficiente para proteger as crianças.
Os argumentos dos réus focam na privacidade. A Apple acredita que proteger os dados dos usuários é mais importante. Ela diz que usar tecnologia de monitoramento pode colocar todos os usuários em risco.
A decisão de parar a detecção de abuso infantil no iCloud em 2022 foi por causa de preocupações. Especialistas alertaram sobre o uso inadequado da tecnologia por agentes governamentais.
A Apple decidiu parar com a tecnologia NeuralHash. Ela era para encontrar fotos e vídeos de abuso infantil no iCloud. Muitos especialistas em segurança estão criticando essa decisão.
Eles dizem que essa tecnologia poderia ter ajudado muito. Ela poderia ter protegido crianças e cuidado com a privacidade dos usuários.
Os especialistas acham que a tecnologia NeuralHash era uma boa ideia. Ela seria segura e não invadiria a privacidade das pessoas. Mas a Apple decidiu parar por causa de preocupações com abusos.
Essa decisão fez muita gente se preocupar com a segurança online. Eles temem que a segurança digital vá piorar. A Apple notificou apenas 267 casos de abuso infantil em 2020. Isso é muito menos do que Google e Facebook notificam.
No results available
ResetSem resultados
Reset