Vivemos na área de IA. Os algoritmos estão ficando cada vez mais sofisticados e realizando tarefas antes reservadas aos humanos. Eles não cansam, não pedem aumento, blá, blá. Em muitas ocasiões, IA faz coisas que humanos simplesmente não podem. Em outros, é puro capitalismo à moda antiga: produzir mais com menos.
Avatares como intérpretes de língua de sinais ameaçam os empregos das pessoas. Eles são muito mais fáceis, rápidos, baratos e convenientes de usar. O programador chama um web service (ou parecido), passando o texto a ser transformado em língua de sinais e, de repente, uma figura humanoide começa a exibir algum comportamento corporificado. O programador pode até escolher a aparência do avatar: sexo, raça, cor da pele, etc. O que mais se pode pedir?! — Gostaria de pedir garantia de que a mensagem certa está sendo transmitida.
Vejamos, por exemplo, os termos de uso com os quais todos devem concordar para começar a usar um serviço online. Você pede à equipe jurídica para elaborar os textos. Deve ser juridicamente vinculativo - material crítico - Assim que estiver pronto para ser incorporado ao seu aplicativo, você decide ser inclusivo e adicionar um avatar on-line para interpretar os termos. Como você pode verificar se está entregando a mensagem corretamente?! E se o IA falhar (e sim, pode falhar) e fornecer a mensagem errada?!
Em um artigo recente (dezembro de 2022), Ismashev e seus colegas escreveram: "A pesquisa sobre o reconhecimento da língua de sinais demonstrou um potencial promissor para o reconhecimento automático robusto da língua de sinais. No entanto, a área de síntese da língua de sinais ainda está em sua infância." Vários outros trabalhos de pesquisa relatam o uso extensivo de digitação, o que prejudica a experiência do usuário.
Muitos serviços de sintetizadores de língua de sinais on-line poderiam questionar esse argumento, alegando que suas máquinas de IA implementam tais e tais estratégias e têm grande precisão. Precisão - isso pode enganar. O que é um bom nível de precisão? Bem, isso vai depender do propósito do seu IA. Se você está processando imagens, obter placas de motocicleta em uma cidade movimentada é uma coisa. Construir uma peça de tecnologia para mediar a experiência digital do seu cliente é um jogo totalmente diferente. Os seres humanos toleram muito pouco ruído durante a interação. Eles rapidamente ficam frustrados. A regra é simples: gasto de energia. A melhor experiência do usuário exige menos energia dos humanos para atingir seus objetivos do mundo real. As deficiências do sintetizador de língua de sinais terão de ser compensadas (quando possível) pelo esforço do seu cliente - gasto de energia.
Não que sejamos contra o uso de avatares para transmitir conteúdo em língua de sinais. Participamos de vários projetos de pesquisa nesse sentido. O que está em debate aqui é o comportamento incorporado do avatar gerado sinteticamente, especialmente quando não existem restrições de domínio - a “boca grande” do serviço da web processaria qualquer texto que engolisse, independentemente do contexto. Como um programador, não versado em língua de sinais, pode ter certeza de que a sinalização do avatar é confiável?
Para resolver isso, pedimos a ajuda de intérpretes de língua de sinais do mundo real – profissionais. Para começar, os intérpretes humanos acionarão definitivamente o dispositivo de aquisição de linguagem do seu cliente junto com seus neurônios-espelho. Isso acontece naturalmente quando você envolve humanos na transmissão de uma mensagem a outros humanos. Ok, legal, mas como um programador pode pedir essa ajuda? Ou, como um programador pode saber quando, durante a interação, é apropriado transmitir uma mensagem por meio da língua de sinais? Afinal, pessoas com deficiência auditiva interagem com computadores.
Outro valor significativo agregado por intérpretes humanos é a empatia. Os intérpretes humanos podem criar uma conexão emocional com outros humanos, o que é crucial para uma comunicação mais eficiente e o bem-estar psicológico de pessoas com deficiência auditiva. Os intérpretes humanos também explicam melhor conceitos complexos e podem adicionar informações, melhorando a transmissão de mensagens.
Na FFIT, desenvolvemos uma galeria de micro front-ends (MFEs) acessíveis - componentes ativos - prontos para serem incorporados ao seu aplicativo. Um micro front-end engloba uma micro jornada do usuário. Assim, se, nessa interação específica, uma mensagem em língua de sinais estiver em ordem, um espaço reservado para vídeo estará disponível no ponto apropriado. Esses MFEs também estão disponíveis em tempo de design por meio de nosso plug-in Figma exclusivo. Os clientes da FFIT têm acesso a intérpretes que podem gravar esses vídeos.
FFIT: Humanidade, Produtividade.