sexta-feira, 29 de maio de 2020

Ainda há muitos riscos na IA

Apesar das confusões envolvendo PF, STF, MJ, e PR, hoje vamos colocar uma matéria do início do ano passado, mas que achei interessantíssima, e estava aqui na fila para publicação. Amanhã comentarei as confusões envolvendo "busca e apreensão", "convocação para depor, etc.

Dito isso, é verdade que a Inteligência Artificial - IA - vem avançando rapidamente, e tomando cada vez mais espaço no mundo moderno. Casas automatizadas, carros com suspensões inteligentes, com sistemas de estacionamento autónomos, aviões capazes de decolar e pousar sós, linhas de produção totalmente automatizadas, entre outros, são exemplos dessa inserção da IA na vida humana.

Mas nem tudo são flores nesse caminho, como mostra o artigo da BBC. Ainda existem muitas falhas, muitos problemas a serem superados, até que tenhamos a substituição da ação humana em muitas áreas, porque se o homem erra, a IA ainda erra mais.

Como sempre o link para o artigo completo, no título da matéria abaixo.


Inteligência artificial: Os 'eventos estranhos' que fizeram tecnologia pensar que tartaruga era uma arma


Menino com sombra de robôDireito de imagemRA2STUDIO
Image captionTestes têm mostrado que inteligência artificial pode trazer riscos aos humanos

O passageiro faz o sinal de parada e fica em pânico quando o carro em que está começa a acelerar. Ele até pensa em gritar com o motorista, mas percebe - ao ver o trem rasgando em sua direção nos trilhos à frente - que não há ninguém dirigindo. O trem a 200 km/h esmaga o veículo autônomo e mata na hora o ocupante.
Esse cenário é fictício, mas aponta uma falha muito real na estrutura de inteligência artificial. Certos "ruídos" podem confundir o sistema de reconhecimento das máquinas e as fazerem "alucinar". O resultado pode ser tão grave quanto o descrito acima. Apesar de o sinal de parada ser claramente visível aos olhos humanos, a máquina pode não conseguir reconhecê-lo por causa de alterações na imagem.
Aqueles que trabalham com inteligência artificial descrevem essas falhas como "exemplos contraditórios" ou, de maneira simplificada, "eventos estranhos".

Placa de trânsito com adesivosDireito de imagemKEVIN EYKHOLT ET AL
Image captionAdesivos simples em um sinal de "Pare" são suficientes para torná-lo invisível a um algoritmo de visão de máquina

"Podemos entender essas falhas como informações que deveriam ser processadas de uma maneira pela rede, mas que cujos resultados são inesperados", afirma Anish Athalye, cientista da computação do Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), em Cambridge.

Vendo coisas

Os sistemas de reconhecimento visual têm recebido especial atenção nesses casos. Pequenas alterações em imagens podem enganar as redes neurais - os algoritmos de aprendizado da máquina que direcionam grande parte da tecnologia moderna de IA. Esse tipo de sistema já é usado, por exemplo, para marcar amigos em fotos ou identificar objetos nas imagens do smartphone.

Nenhum comentário:

Postar um comentário