Avançar para o conteúdo

Riscos da Inteligência Artificial

Riscos da inteligência artificial levantam alerta e suscitam respostas. Privacidade, ameaças ao trabalho e discriminação levantam debates

Quais os Riscos do Uso da Inteligência Artificial?

Com o crescimento da importância e visibilidade da inteligência artificial (IA), as preocupações com as consequências negativas da utilização dessas tecnologias também aumentam. Governos, pesquisadores, associações civis e até mesmo empresas têm discutido os cuidados e medidas necessários para mitigar esses resultados prejudiciais.

O espectro de riscos e perigos é vasto. Além da questão mais proeminente do futuro do trabalho, possíveis complicações incluem desde a discriminação de determinados grupos até a própria mudança na noção de humanidade em relação às máquinas, passando por ameaças à privacidade e danos na organização de mercados, assim como abusos no emprego de armas.

A inteligência artificial envolve processamento complexo que requer uma grande quantidade de dados para sua eficácia. Portanto, o funcionamento adequado desses sistemas, e quaisquer ganhos decorrentes, pressionam por uma coleta crescente de informações. Essas soluções podem intensificar a preocupação existente com a proteção de dados pessoais.

Em agosto do ano passado, veio a público que o Google estava envolvido em um projeto (Projeto Nightingale) no qual coletava dados de milhões de pacientes nos Estados Unidos através de acordos com empresas, sem o conhecimento dessas pessoas. O Google é uma das empresas líderes nesse campo, utilizando inteligência artificial em diversos produtos, desde o mecanismo de busca até o tradutor, entre outros.

Riscos de Privacidade

O Facebook, outro conglomerado importante no uso de aplicações com inteligência artificial, também tem historicamente aprofundado formas de coleta de informações de usuários. Em depoimento ao Congresso dos Estados Unidos em abril de 2018, o diretor-executivo, Mark Zuckerberg, admitiu que a empresa coleta dados mesmo de quem não é seu usuário.

Uma pesquisa do Pew Research Center divulgada em 2019 com cidadãos norte-americanos apontou que cerca de 80% estavam preocupados com sua privacidade e sentiam-se sem controle sobre suas informações pessoais diante de empresas e governos. Já outro estudo da Unysis colocou o Brasil como sexto país onde os cidadãos estão mais receosos em relação ao acesso às suas informações online.

Essas preocupações têm levado à aprovação de leis em diversos países, como o regulamento geral da União Europeia, em vigor desde 2018, e a Lei Geral de Proteção de Dados (Lei brasileira Nº 13.709), que entrará em vigor em agosto deste ano. Mais de 100 países já possuem legislações desse tipo, conforme um levantamento da consultoria DLA Piper.

Inteligência Artificial e Processos de Decisão

À medida que os sistemas de inteligência artificial ganham relevância em análises e tomadas de decisão, suas escolhas começam a impactar diretamente a vida das pessoas, podendo resultar na discriminação de certos grupos em processos como recrutamento de funcionários, concessão de créditos, acesso a direitos e benefícios, e atividades policiais. Uma das aplicações mais polêmicas são os mecanismos de reconhecimento facial, que podem determinar se uma pessoa pode receber um auxílio, fazer check-in ou até mesmo ser presa.

Na China, uma ferramenta chamada SenseVideo começou a ser vendida no ano passado com funcionalidades de reconhecimento de rostos e objetos. No Brasil, soluções desse tipo estão sendo utilizadas tanto para empresas, como o Sistema de Proteção ao Crédito (SPC), quanto para monitoramento de segurança por câmeras, como nos estados do Ceará, Bahia e Rio de Janeiro. Recentemente, no segundo dia de operação, uma mulher foi erroneamente detida, sendo confundida com uma fugitiva.

Em fevereiro de 2018, dois pesquisadores do renomado Instituto de Tecnologia de Massachusetts (MIT) e da Universidade de Stanford, Joy Buolamwini e Timnit Gebru, testaram sistemas e constataram que as margens de erro eram bastante diferentes de acordo com a cor da pele. Um estudo realizado pelo governo dos Estados Unidos, divulgado no ano anterior, analisou 189 ferramentas tecnológicas e constatou que as taxas de falsos positivos para negros e asiáticos eram de 10 a 100 vezes superiores às de indivíduos brancos.

Esses questionamentos levaram estados e cidades a banir a tecnologia, incluindo São Francisco, a sede das maiores corporações de tecnologia do mundo, e Cambridge, onde fica o Instituto de Tecnologia de Massachusetts. No início do ano, a Comissão Europeia anunciou a possibilidade de proibir o uso de reconhecimento facial, um assunto atualmente em discussão no bloco. No Brasil, existem dois projetos de lei que propõem a obrigatoriedade do uso de reconhecimento facial em certas circunstâncias, como nos presídios.

Riscos de Discriminação

Projetos de inteligência artificial também podem promover a discriminação em políticas públicas. Na província de Salta, na Argentina, a administração local lançou uma plataforma tecnológica de intervenção social em parceria com a Microsoft, com o intuito de identificar meninas com potencial de gravidez precoce a partir da análise de dados pessoais, como nome e endereço.

A influência derivada de uma ampla gama de decisões torna-se ainda mais significativa quando um agente específico detém poder de mercado. Na área de tecnologia, grandes conglomerados dominam seus nichos de mercado e lideram a adoção de inteligência artificial, como Microsoft, Amazon, Google, Apple e Facebook nos Estados Unidos, e Tencent e Alibaba na China.

O Google possui mais de 90% do mercado de buscas e mais de 70% do mercado de navegadores, além de controlar a maior plataforma audiovisual do mundo, o Youtube. O Facebook alcançou 2,5 bilhões de usuários e controla os três principais aplicativos do mundo: Facebook, FB Messenger e Whatsapp, além do Instagram.

Quanto maior a participação no mercado e o número de usuários, maior é a quantidade de dados coletada. E se essas informações pessoais são consideradas por entidades internacionais como a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e o Fórum Econômico Mundial (FEM) um ativo econômico chave, quem controla amplas bases passa a deter uma vantagem competitiva chave, podendo reforçar seu domínio e prejudicar concorrentes.

IoT e Armas

Um dos riscos mais críticos associados à IoT é o crescimento de armamentos inteligentes, como drones e tanques autônomos, considerados a terceira revolução bélica após a pólvora e as armas nucleares. Entre 2000 e 2017, o número desses dispositivos aumentou de 2 para mais de 50 globalmente. Os principais países desenvolvedores dessas tecnologias são Estados Unidos, Israel, Rússia, França e China. Esses sistemas elevam os riscos de decisões autônomas, pois envolvem a decisão sobre a vida e a morte de indivíduos.

Essas preocupações têm atraído a atenção das empresas que trabalham com inteligência artificial. Um estudo da McKinsey de novembro de 2019 revelou que 40% das empresas consultadas identificam e priorizam os riscos associados a essa tecnologia. Os impactos negativos mais destacados pelas empresas incluem cibersegurança (62%), conformidade legal (50%), privacidade (45%), transparência (39%), substituição da força de trabalho (35%), reputação organizacional (34%) e equidade (26%).

Essa gama de riscos e controvérsias ampliou o debate sobre as medidas necessárias para mitigar essas ameaças e promover o uso adequado de máquinas inteligentes. Centenas de pesquisadores assinaram um documento chamado Princípios de Asilomar, referente à conferência realizada na Califórnia em 2017, que delineia diretrizes para o desenvolvimento ético dessas tecnologias.

Medidas de Segurança da Microsoft e Google

Nos últimos anos, empresas de tecnologia também estabeleceram seus próprios princípios. A Microsoft, por exemplo, lançou diretrizes baseadas em imparcialidade, confiabilidade, transparência, privacidade e segurança, inclusão e responsabilidade. O Google também anunciou valores e orientações para o desenvolvimento dessas tecnologias, incluindo benefício social, mitigação de vieses, segurança, transparência, e a incorporação de princípios de segurança no design técnico.

Governos e organismos internacionais também se envolveram na discussão. Em abril do ano passado, a Comissão Europeia divulgou diretrizes para uma inteligência artificial centrada nas pessoas. Essas diretrizes enfatizam a importância da participação humana e o controle sobre os dispositivos técnicos, promovendo os direitos e papéis dos indivíduos sem prejudicá-los.

A ampla gama de riscos e controvérsias demanda respostas adequadas para garantir que a inteligência artificial beneficie a sociedade e respeite os valores e direitos humanos. É essencial garantir transparência, explicabilidade e responsabilização no uso dessas tecnologias, além de desenvolver medidas para mitigar problemas como vieses e discriminação. Buscar uma abordagem ética na inteligência artificial é fundamental para assegurar que essas ferramentas sejam utilizadas de maneira responsável e benéfica para todos.

Leia mais sobre ciência.

animais domésticos

Deixe um comentário

Sobre o Autor

Valdiomir Meira é graduado em letras, história e ciências contábeis, com especialização em metodologias inovadoras de educação e semiótica. Sua grande paixão é ler, viajar e ensinar. Pesquisador na área de história da ciência e educação. Além de outras atuações profissionais, como criação de conteúdo para internet e tutoriais, também é redator e editor de artigos para blogs.

Você poderá gostar também

Aprenda inglês rapidamente para viajar tranquilo
Português para concurso com questões comentadas
Avaliações editáveis no Word
Matemática simples e descomplicada!