Celular

O choque da vigilância Siri da Apple exige uma resposta rápida

2views

A notícia de que a Siri grava trechos de nossas conversas com o assistente de voz não é nova, mas afirma que essas gravações curtas são ouvidas por agentes humanos é – especialmente à luz do grande impulso da empresa para a privacidade.

Esta é uma óptica ruim para a Apple

Acredito veementemente na importância da privacidade.

Não é importante apenas em termos de preservar as liberdades conquistadas a duras penas e proteger o discurso público; também é de importância crescente em todas as partes da existência humana – para todas as escolas, instalações médicas ou empresas. A história mostra que a ausência de privacidade tem um efeito corrosivo na sociedade, colocando os membros da família uns contra os outros e inibindo a inovação.

Os avisos da Apple sobre privacidade – incluindo o aviso do CEO da Apple, Tim Cook, de que muitas das empresas de tecnologia com as quais trabalhamos diariamente estão nos levando a um estado de vigilância – são importantes (embora nem sempre convenientes para aqueles que argumentam que a privacidade é apenas algo que devemos sacrificar pela bom dos robôs que fazemos).

No entanto, a revelação de que a Apple não deixou claro que as gravações de nossas conversas privadas estão sendo compartilhadas com “contratados” para fins de “controle de qualidade” e “treinamento” é uma imagem muito ruim para a empresa.

O que a Apple está dizendo

A Apple afirma que:

“Uma pequena parte das solicitações do Siri são analisadas para melhorar o Siri e o ditado.” Ele também promete que “As solicitações do usuário não estão associadas ao ID Apple do usuário. As respostas da Siri são analisadas em instalações seguras e todos os revisores têm a obrigação de cumprir os estritos requisitos de confidencialidade da Apple. ”

Isso é reconfortante até certo ponto, mas dado que em alguns casos, os revisores da Apple supostamente ouviram pessoas compartilhando informações pessoais, incluindo seu endereço, a mudança para o divórcio do som gravado do Apple ID relevante pode não ser suficiente.

A Apple precisará fazer um pouco mais.

Como a Apple pode remediar a situação

Comece com transparência

Oculto nos termos e condições da Apple, você encontrará avisos de que as gravações feitas com o Siri às vezes são usadas para fins de controle de qualidade.

Você também encontrará a promessa de que essas gravações (ao contrário dos concorrentes) não estão vinculadas de forma alguma ao seu ID Apple ou identidade pessoal.

Essas promessas não são muito claras.

É por isso que digo que a Apple deve apresentar avisos de privacidade muito mais claros e fáceis de entender sobre o uso do Siri em seus dispositivos. Ele precisa mover esses avisos para a frente e para o centro e deixar bem claro que não apenas às vezes usa essas gravações, mas também como as usa, como protege a identidade ao usá-las e exatamente por quanto tempo essas gravações são mantidas.

Mas dê às pessoas o controle

A Apple deveria (eu acho) tornar a gravação do Siri um opt-out.

Ou seja, ao configurar o Siri em um novo dispositivo, o usuário deve ter a chance de rejeitar explicitamente o uso de sua voz para qualquer finalidade diferente da solicitação original.

Você deve ser capaz de dizer que não deseja que seus dados sejam usados ​​em treinamento ou controle de qualidade.

“Mas a Apple não será capaz de treinar o assistente tão rapidamente”, alguns podem reclamar. Talvez não, mas manterá a liderança na proteção da privacidade.

Não apenas isso, mas é discutível o quão úteis essas gravações realmente são.

Torne-se mais responsável

Quem são os “contratados” que Apple, Google, Amazon e todos os outros estão usando para verificar e ouvir essas gravações curtas do que dizemos?

Como eles são contratados?

Quais são as suas descrições de trabalho? Para quem mais trabalham?

Com base em que eles podem ser confiáveis ​​e como os indivíduos podem obter reparação caso abusem dessa confiança?

E por que os usuários do Siri ainda não sabem as respostas para todas essas perguntas?

Que esses empreiteiros sejam terceirizados não faz sentido.

A Apple deve fazer esse trabalho internamente, tornar-se totalmente responsável pelo que seus funcionários e gerenciamento de voz fazem com essas gravações e garantir que os clientes tenham alguma forma de punir qualquer infração de sua privacidade de dados.

Certifique-se de que realmente precisa das informações

A Apple diz que grava e usa apenas pequenas seções de palavras que ouve, mas será que ela precisa manter ou verificar quantas amostras quiser?

Pense nisso assim:

Se o Siri em seu relógio ou HomePod ouvir o que pensa ser o comando “Ei, Siri”, mas nenhuma solicitação for feita posteriormente, então certamente ele deve ser inteligente o suficiente para reconhecer que um alarme falso ocorreu.

No caso de tal alarme falso, então o Siri no dispositivo deve ser inteligente o suficiente para aprender o que causou a invocação acidental e ser menos sensível a esse som no futuro.

(UMA Guardião relatório afirmava que o som de zips às vezes acorda o Siri, por exemplo – certamente o Siri pode aprender a ignorar o som de zips em resposta.)

O resultado final é que, no caso de Siri ser invocado, mas nenhuma solicitação específica for feita, o sistema deve ser inteligente o suficiente para ignorar a interação e excluir qualquer gravação feita como resultado dessa interação, além (possivelmente) dos primeiros três segundos em que pensou ter ouvido o comando de gatilho.

O simples fato de dar esse passo evitaria muito bem algumas das gravações mais flagrantes que a Siri teria ouvido e compartilhado com os contratantes.

Não quero que o Siri melhore em ouvir o que eu digo quando não quero que ele ouça. Só quero ouvir melhor quando faço um pedido.

Os humanos são mesmo necessários?

A tecnologia de voz está avançando rapidamente. Isso levanta a questão: “É mesmo necessário que contratados humanos ouçam trechos de conversas relacionados ao Siri?”

Acho que, em muitos casos, simplesmente não é.

As gravações devem ser submetidas ao Siri e outras tecnologias de reconhecimento de voz em primeira instância para automatizar a verificação da precisão.

Somente naqueles casos em que diferentes sistemas de reconhecimento de voz não conseguem encontrar uma maneira de concordar sobre o que é dito, é que os ouvidos humanos são necessários.

Não sou nenhum especialista em IA, mas esse tipo de análise é o tipo de coisa para a qual os modelos / algoritmos da Random Forest são construídos – somente quando a tecnologia não consegue concordar sobre o motivo de ter uma solicitação errada, caso um humano seja necessário.

Por que isso importa

Essas são apenas uma pequena coleção de sugestões que espero que a Apple aceite para tornar o Siri o assistente de voz mais privado do setor.

Essas coisas são importantes.

Pense nisso:

As palavras que usamos não são apenas propriedade nossa, mas à medida que as tecnologias baseadas em sensores e a IA entram em diferentes esferas da vida cotidiana – do mapeamento à realidade virtual onipresente – a necessidade de privacidade se torna ainda mais importante, pois muito mais de nossas vidas se tornará um livro aberto.

As decisões que tomamos em torno da voz hoje definirão todas as outras esferas de privacidade.

Há quem pense que a privacidade é um preço que devemos pagar pela conveniência do computador, mas nunca concordei com eles.

Estamos em um ponto da história humana em que as decisões que tomamos em relação à privacidade do assistente de voz repercutirão em nosso futuro.

Precisamos resolver isso de uma forma eficaz porque, a menos que o façamos, as implementações serão inseguras e potencialmente eticamente incorretas.

E a Apple deve levar adiante sua demanda por uma declaração de direitos digitais neste espaço, uma lei que coloque os usuários no centro do controle de privacidade.

Leave a Response

LQWEB