Microsoft vai parar de vender tecnologia de leitura de emoções e restringir acesso a ferramentas de reconhecimento facial
A Microsoft confirmou que retirará o software que avalia o estado emocional de uma pessoa processando sua imagem. Além disso, a empresa também restringirá o acesso à sua tecnologia de reconhecimento facial.
Seguindo o exemplo do Google, a Microsoft está encerrando a venda de tecnologia de leitura de emoções. A empresa também restringirá o acesso “irrestrito” à tecnologia de reconhecimento facial. Os clientes existentes terão apenas um ano antes de perderem o acesso ao Azure Face, um conjunto de ferramentas de inteligência artificial (IA) que tenta determinar emoções, sexo, idade, sorriso, barba, cabelo e maquiagem. Falando sobre desenvolvimento , Sarah Bird, gerente de produto principal do Microsoft Azure AI Group, disse:
Esses esforços levantaram questões importantes sobre privacidade, a falta de consenso sobre a definição de “emoção” e a incapacidade de generalizar a relação entre expressão facial e estado emocional em casos de uso, regiões e dados demográficos.
A Microsoft está investigando se os sistemas de reconhecimento de emoções são baseados na ciência. Não está imediatamente claro o que a Microsoft quis dizer. No entanto, é possível que a empresa não tenha conseguido aperfeiçoar os algoritmos que adivinham o estado emocional de uma pessoa a partir da imagem. Além disso, a empresa pode reforçar seu argumento contra novas regras e regulamentos sobre o uso de tais ferramentas.
Além de encerrar a venda da tecnologia de leitura de emoções, a Microsoft também está encerrando o acesso irrestrito à sua tecnologia de reconhecimento facial. A empresa indicou que os clientes que usam suas tecnologias de reconhecimento facial devem obter autorização prévia. Claramente, os clientes da Microsoft devem ter obrigações contratuais. No entanto, não está claro se a Microsoft está impondo restrições adicionais ou simplesmente pedindo às empresas que assinem uma isenção de responsabilidade liberando a Microsoft de quaisquer sanções legais associadas a qualquer uso indevido.
Por enquanto, a Microsoft simplesmente pediu a seus clientes que “evitem situações que violem a privacidade ou onde a tecnologia possa falhar”. Um objetivo legalmente duvidoso óbvio é a identificação de menores. Aliás, a Microsoft não proíbe especificamente tal uso.
A Microsoft também impõe algumas restrições ao recurso Custom Neural Voice, que permite que os clientes criem vozes de IA com base em gravações de pessoas reais .
Deixe um comentário