Inteligência Artificial: grandes poderes e grandes responsabilidades

Inteligência Artificial: grandes poderes e grandes responsabilidades

Nas discussões sobre a evolução da inteligência artificial (IA), em suas mais distintas áreas de aplicação, o tema mais comum é a substituição do homem por robôs e algoritmos. O fim de determinadas carreiras profissionais e o surgimento de novos ofícios são motivo de debates fervorosos entre defensores e críticos de inovações nesse sentido.

Todavia, o que está posto é que a IA é uma realidade e tecnologias disruptivas decorrentes do seu uso surgirão cada vez mais. Diante dessa realidade, inúmeras outras questões merecem debates e análises. E como em outros segmentos de tecnologia, questões éticas devem ser postas à mesa.

Em artigo recente, especialistas do Boston Consulting Group (BCG) afirmaram que o conceito de IA responsável vai avançar na sociedade a ponto de não ser mais necessário falar explicitamente sobre o conceito. Mas qual conceito? O que é a inteligência artificial responsável?

Para chegar ao conceito, os especialistas partem de uma distinção: IA é uma ferramenta que não tem capacidade cognitiva ou sentimentos. Você deve se lembrar do pesquisador de inteligência artificial da Google que foi colocado em licença administrativa depois de alegar que um modelo de linguagem havia desenvolvido sentimentos. Segundo a maior parte dos cientistas, isso não é possível.

A partir desse ponto, acrescidas outras características do pensar humano (senso de justiça, vergonha, rancor etc.), o que os especialistas propõem é que o ônus do potencial da IA recai diretamente sobre seus criadores. Ou seja, quem a desenha e implementa tem o dever de fazê-lo de modo responsável.

No filme “Eu, robô”, uma cena contribui para esclarecer essa proposta. O personagem principal, interpretado por Will Smith, odeia robôs porque, numa situação de resgate, a máquina encarregada da ação calculou as chances de sobrevivência de duas vítimas em um acidente, socorrendo aquela que tinha maiores chances para o salvamento.

Bem, a máquina seguiu a programação que, inclusive, é semelhante à maior parte dos protocolos clínicos mundo a fora: em caso de duas ou mais vítimas graves, socorra primeiro a que tem maior probabilidade de sobreviver. Responsabilizar as máquinas, como a personagem do filme faz, não faz sentido algum e pode acobertar as falhas de desenvolvedores pouco preparados.

Em resumo, como propõem as equipes do BCG, não se trata de tentar fazer a inteligência artificial agir “eticamente”, o que seria humanizar uma ferramenta não cognitiva. O que se espera é a formação de desenvolvedores capacitados para as tarefas de projetar, construir, implantar e usar sistemas de IA aderentes a valores éticos. E, aqui, a abordagem da consultoria norte-americana fica mais interessante ainda.

Os criadores – ou seja, nós humanos – são falhos. E para apontar apenas uma possibilidade de erro, os especialistas citam a dificuldade em reconhecer nossos próprios vieses cognitivos. As ferramentas de inteligência artificial aprendem com dados que, regra geral, podem estar impregnados com os valores de seus desenvolvedores. A IA não pode resolver esse problema de origem.

O que se pode fazer então? O primeiro passo é compreender a aceitar essas deficiências inerentes ao desenvolvimento de tecnologias e aplicações de inteligência artificial. Após esse input, é preciso vencer os bloqueios infantis sobre o debate de questões éticas, filosóficas e de direitos no campo da tecnologia. Outra demanda é a criação de rotinas para revisão constante dos resultados oferecidos por IA após a entrega aos clientes e a disseminação da respectiva tecnologia – algo como regular uma obrigação de recall para robôs e algoritmos. Afinal de contas, está claro que IA traz grandes poderes e grandes responsabilidades.