Conecte-se conosco

Tecnologia

IA da Meta “lê pensamentos” para permitir que pacientes com deficiência falem

Publicado

em


Os avanços tecnológicos recentes têm desbravado novas oportunidades para aprimorar a qualidade de vida de pessoas com deficiências ou limitações. Uma iniciativa notável vem dos pesquisadores de inteligência artificial (IA) da Meta.

A equipe alcançou um método promissor e não invasivo que decodifica a fala a partir da atividade cerebral de uma pessoa, possibilitando que pacientes que não podem falar “transmitam” pensamentos por meio de IA. Esse procedimento inovador, que combina uma técnica de imagem com aprendizado de máquina, foi detalhado na revista Nature Machine Intelligence.

Como funciona a IA que “lê pensamentos”

O objetivo principal é fornecer uma rota alternativa e não invasiva para decodificar representações de fala. Jean Remi King, cientista pesquisador da Meta, explica: “Em vez de usar eletrodos intracranianos, empregamos a magnetoencefalografia”, uma técnica que mapeia a atividade cerebral por meio da detecção de campos magnéticos produzidos por correntes elétricas no cérebro.

Essa técnica de imagem depende de um dispositivo não invasivo capaz de capturar mais de mil instantâneos da atividade cerebral por segundo. Como esses sinais cerebrais são desafiadores de interpretar, um sistema de IA foi treinado para decodificá-los em segmentos de fala.

Em resumo, a IA antecipa a fala com base na atividade cerebral registrada nas imagens. O sistema possui dois módulos: o ‘módulo cerebral’, treinado para extrair informações da atividade cerebral humana, e o ‘módulo de fala’, que identifica representações de fala a serem decodificadas.

“Depois de um derrame ou doença cerebral, muitos pacientes perdem a capacidade de falar”, observa King.

Teste em humanos

A abordagem foi avaliada em um estudo inicial com 175 participantes humanos, convidados a ouvir narrativas e frases enquanto sua atividade cerebral era monitorada.

Os melhores resultados foram obtidos ao analisar três segundos de sinais, alcançando uma precisão média de 41% na decodificação de segmentos de fala entre mais de 1.000 possibilidades. Em alguns participantes, a precisão atingiu notáveis 80%.

“Ficamos surpresos com o desempenho de decodificação obtido”, compartilha King.

Apesar do potencial evidenciado para aplicações futuras, o sistema está nos estágios iniciais de desenvolvimento e exigirá melhorias antes de ser introduzido em ambientes clínicos para auxiliar pacientes com deficiências relacionadas à fala.

 




Clique para comentar

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

+ ACESSADAS DO MÊS