Máquinas podem ser treinadas
para classificar imagens e, desse modo, identificar tumores em tomografias,
composições mineralógicas em rochas ou patologias em análises de microscopia
óptica. Essa área da inteligência artificial é conhecida como aprendizado de
máquina e vem ganhando novas aplicações nos últimos anos.
Desenvolvimento desta área da
inteligência artificial tem resultado em aplicações em medicina, segurança
pública, astronomia e biologia marinha, destacam pesquisadores em palestras em
palestras durante a FAPESP Week France
O treinamento da máquina é
feito por meio da repetição de imagens usadas como exemplos de um determinado
contexto ou situação e a preparação adequada desse material requer um esforço
de especialistas das mais diversas áreas.
“O humano é que coordena. Sem
o controle do especialista sobre o processo de treinamento, a máquina pode
aprender a tomar decisões com base nas características da imagem que não estão
relacionadas ao problema-alvo. Isso gera um resultado ruim ou restrito àquela
base de dados em que a máquina foi treinada. Quando muda a base de dados, o
erro aumenta consideravelmente, tornando a análise da máquina pouco confiável”,
disse Alexandre Xavier Falcão, do Instituto de Computação da Universidade
Estadual de Campinas (Unicamp), em palestra apresentada na última quinta-feira
(21/11) na FAPESP Week France.
Falcão tem unido a ciência da
computação com diferentes áreas do conhecimento a partir de projetos em machine
learning, desenvolvidos com o apoio da FAPESP, linha de pesquisa que
investiga a interação humano-máquina na tomada de decisões.
Automatização da detecção de
parasitas
Um dos projetos liderados por
Falcão e apresentados na FAPESP Week France teve como objetivo automatizar a
detecção de parasitas em exame de fezes. A pesquisa foi conduzida por meio de
uma parceria entre a Immunocamp e pesquisadores dos Institutos de Computação e
de Química da Unicamp, além da Faculdade de Ciências Médicas da mesma
universidade.
A equipe interdisciplinar
desenvolveu uma máquina – patenteada e em breve disponível no mercado – capaz
de identificar as 15 espécies mais prevalentes de parasitas que infectam
humanos no Brasil.
A técnica de aprendizado de
máquina demonstrou eficiência superior a 90%, bem maior que as análises
convencionais realizadas por humanos por meio de análise visual de lâminas de
microscopia óptica, cujos índices variam de 48% a, no máximo, 76%. A máquina
também é capaz de processar 2 mil imagens em quatro minutos.
“A ideia não é substituir o
trabalho de humanos, até porque eles precisam treinar as máquinas para a
identificação de mais espécies de parasitas e confirmar o diagnóstico dos
patógenos detectados pela máquina, mas evitar a fadiga dos humanos e aumentar a
precisão dos resultados”, disse.
A tecnologia inédita contou
também com apoio da FAPESP por meio do Programa Pesquisa Inovativa em
Pequenas Empresas (PIPE).
Aprendizado interativo de
máquina
De acordo com Falcão, a
primeira dificuldade do projeto foi ensinar a máquina a distinguir nas imagens
o que era impureza e o que era, de fato, parasita. “Só conseguimos contornar
esse obstáculo por meio da combinação entre técnicas de processamento de
imagens, aprendizado interativo de máquina e visualização. O especialista e a
máquina participam de forma colaborativa no ciclo do aprendizado da máquina.
Outro ponto importante é que áreas da saúde e da química têm criado técnicas
para gerar lâminas de microscopia óptica mais ricas em parasitas e com menos
impurezas fecais”, disse.
Uma das inovações criadas pela
equipe da Unicamp foi um sistema para separação de parasitas e impurezas
baseado no princípio de flotação por ar dissolvido.
A máquina é capaz de fazer a
varredura automatizada da lâmina e detectar os parasitas que aparecem em
imagens na tela do computador. Isso foi possível por meio de técnicas
computacionais que separam os componentes da imagem para verificar e decidir se
são impurezas ou uma das 15 espécies parasitárias.
“A interação humano-máquina
tem potencial para reduzir o esforço humano e aumentar a confiança na decisão
algorítmica. Nossa abordagem tem mostrado que a inclusão do especialista no
ciclo de treinamento gera sistemas confiáveis de tomada de decisão baseada em
análise de imagem."
O intuito da metodologia é
minimizar o esforço do especialista na anotação de imagem em larga escala
visando a construção de sistemas de tomada de decisão com alto índice de
acerto.
“A abordagem clássica, que usa
exemplos pré-anotados e sem interação humana durante o treinamento, deixa
várias perguntas sem resposta. São questões essenciais, como quantos exemplos
são necessários para que as máquinas aprendam ou como explicar as decisões
tomadas pela máquina. A nossa metodologia consiste em incluir o especialista no
ciclo do aprendizado de máquina para que perguntas como essas sejam
respondidas”, disse.
A estratégia da equipe de
Falcão para construir sistemas de tomada de decisão confiáveis tem sido
explorar habilidades complementares. “Os humanos são superiores na abstração de
conhecimento. Já as máquinas não se cansam e são melhores no processamento de
grandes quantidades de dados. Desse modo, o esforço do especialista é minimizado
ao controlar o ciclo de aprendizado e as decisões das máquinas passam a ser
explicáveis”, disse.
Aprendizado autônomo
Outra técnica de machine
learning que tem sido empregada cada vez mais para desenvolver novas
tecnologias baseadas em análise de imagens é a de deep learning, que visa
treinar as máquinas a aprenderem sozinhas por meio de reconhecimento de padrões
e, dessa forma, agirem e interpretarem dados de modo mais natural.
Os avanços nessa área têm
possibilitado inovações importantes baseadas na análise de imagens, como
reconhecimento facial, identificação de corpos celestes ou sistemas capazes de
descrever o conteúdo de uma foto, destacou Nina Hirata, pesquisadora do
Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP),
em palestra apresentada também na última quinta-feira (21/11) durante a
programação da FAPESP Week France.
“Tarefas comuns em problemas
de análise de imagens, como classificação, reconhecimento de objetos,
segmentação [delineação precisa do contorno de objetos] e interpretação do
conteúdo, podem ser abordadas com técnicas de machine learning e, nos últimos
anos sobretudo, com técnicas de deep learning”, disse Hirata.
Como explicou a pesquisadora,
deep learning envolve técnicas que permitem processar uma imagem diretamente,
sem que um humano precise descrever as características da imagem durante o
treinamento da máquina.
“Antes era preciso escrever
algoritmos muito específicos para extrair informações de características da
imagem. Cada caso era um caso. O processo era muito manual. Hoje, com o deep
learning, essa tarefa ficou muito mais fácil, o que nos permite focar em
tarefas de nível mais elevado. Por exemplo, no caso de imagens biomédicas, em
vez de empenhar nosso esforço em segmentar e extrair características de células
individuais em um tecido, podemos canalizar o esforço na comparação de
tecidos”, disse Hirata.
No entanto, acrescentou,
apesar dos vários aspectos positivos dessa tecnologia, existem também vários
desafios a serem vencidos. “Deep learning é uma espécie de caixa-preta: é muito
difícil explicar por que ele está funcionando ou por que, às vezes, deixa de
funcionar”, disse Hirata.
Interdisciplinar
A pesquisadora da USP trabalha
atualmente em um projeto dedicado ao entendimento de imagens e de modelos de
deep learning. Outro objetivo da pesquisa é testar a aplicação desses modelos
em áreas diversas da ciência, como o reconhecimento de espécies de
plânctons e a identificação de corpos celestes em imagens capturadas por
meio de telescópios. Ela ainda citou outros projetos em andamento no instituto,
um deles com o objetivo de medir o quão verde é uma cidade com base em dados do
Google Street View.
“Em minha experiência, percebi
que há uma dificuldade de comunicação entre pesquisadores de áreas distintas,
barreira que dificulta colaborações multidisciplinares. Mas isso precisa ser
mudado, pois atualmente é quase impossível fazer uma pesquisa sem estar
amparado em dados e na ciência da computação”, disse.
Para Hirata, é preciso que
pesquisadores de outras áreas entendam como formular problemas computacionais
e, ao mesmo tempo, os estudantes da área de computação sejam treinados a lidar
mais diretamente com problemas reais.
O simpósio FAPESP Week France
acontece entre os dias 21 e 27 de novembro, graças a uma parceria entre a
FAPESP e as universidades de Lyon e de Paris, ambas da França. Leia outras
notícias sobre o evento em www.fapesp.br/week2019/france.
Maria Fernanda Ziegler, de
Lyon | Agência FAPESP, Imagem: Gerd Altmann - Pixabay
0 comentários:
Postar um comentário