fb

Tecnologia e inovação

4 min de leitura

Inteligência artificial desperta discussões sobre confiabilidade e ética

Estudo do SAS indica que líderes confiam em recomendações dadas por sistemas de IA e suas organizações já estruturam equipes focadas em questões éticas

Equipe de conteúdo SAS

09 de Junho

Compartilhar:
Artigo Inteligência artificial desperta discussões sobre confiabilidade e ética

Ao mesmo tempo que a inteligência artificial (IA) entusiasma aqueles que enxergam o seu potencial para solucionar problemas difíceis, o fato de a tecnologia estar recebendo tanta autonomia – e até tratamento pessoal – vem criando uma onda de preocupação. Por mais que algumas vezes essa inquietação pareça coisa de ficção científica, o uso da IA de fato carrega riscos potenciais que as organizações precisam estar prontas para gerenciar.

Especialmente porque a inteligência artificial permite que máquinas tomem decisões e ações autônomas, as discussões sobre sua confiabilidade são mais urgentes do que aquelas relacionadas a outras tecnologias.

Para ajudar a entender o grau de confiança em IA, o MIT, em conjunto com o SAS, pediu que 2.200 líderes de negócios, gestores e especialistas em todo o mundo dissessem quão confiáveis eles consideram os resultados e as recomendações de sistemas baseados em IA em dois diferentes contextos: em suas vidas pessoais, como consumidores; e no trabalho, ao interagir com os sistemas de IA em suas organizações.

Em uma escala de 0 a 10, onde 10 é o mais confiável, a nota média registrada para os sistemas de IA pessoais foi 7, ante 6 para o uso nas empresas.

O grau de confiança varia quando considerados os níveis de maturidade e adoção de IA pelas empresas dos entrevistados. Confira o gráfico abaixo.

Fonte: estudo MIT_howAIleadschange

Além do grau de confiabilidade, a análise também avaliou algumas preocupações dos executivos em relação aos riscos trazidos pela IA, e descobriu que as seis principais inquietudes dizem respeito a:

  • Entrega de índices equivocados de retorno sobre o investimento

  • Produção de informação de má qualidade

  • Uso antiético da tecnologia

  • Suporte a decisões tendenciosas, preconceituosas e potencialmente ilegais

  • Produção de resultados que humanos não consigam explicar

  • Incapacidade de gerenciar questões muito imprevisíveis

Novas ameaças demandam novas estruturas de gestão de risco

Para construir confiança em torno da IA é necessário gerenciar os riscos associados a ela. O levantamento do SAS tentou entender como as empresas estão fazendo isso. 

De acordo com a pesquisa, cerca de metade delas tem trabalhado para criar estruturas organizacionais capazes de gerenciar os riscos associados à IA: 26% contam com uma equipe dedicada a criar políticas e gerenciar esses riscos, e 24% planejam criar essa estrutura. Naturalmente, as organizações que já utilizam algum tipo de recurso de inteligência artificial são mais propensas a contar com um time focado em estabelecer políticas e endereçar os riscos – 57% das empresas que fazem uso de IA em grande escala já o fazem, assim como 38% das que possuem sistemas pontuais de IA.

As grandes empresas, com 5.000 funcionários ou mais, também tendem a endereçar os riscos da IA com mais efetividade: 34% delas já nomearam um grupo para isso. 

Gestão diferente

A responsabilidade sobre a gestão de risco em IA é um pouco diferente dos demais processos de controle e mitigação de ameaças ao negócio. Aqui, ela tende a recair sobre o CIO, CTO ou o próprio CEO, assim como tende a ser compartilhada. A pesquisa indica que poucas organizações estão dando a responsabilidade sobre os riscos da IA a áreas que tradicionalmente gerenciam riscos, como a financeira ou jurídica.

E, embora as aplicações de IA tenham grande potencial de causar prejuízos se forem mal utilizadas – ou se recomendarem decisões equivocadas –, apenas um em cada quatro líderes diz contar com um plano para remediar os danos. Veja a imagem abaixo.

Fonte: estudo MIT_howAIleadschange

Ética e conceitos preestabelecidos

A IA parece estar colocando na mesa discussões sobre ética. Para os especialistas de mercado e líderes de negócios, tornar os modelos de IA mais transparentes é algo alinhado com os esforços para garantir que essa poderosa tecnologia seja utilizada de maneira ética e que os desenvolvedores considerem que o modelo criado para um determinado fim pode, potencialmente, ser utilizado de modo inadequado para outra finalidade.

As empresas parecem estar atentas a essa questão. De acordo com o estudo do SAS, 42% das organizações que possuem iniciativas de IA contam também com um quadro de profissionais dedicado a determinar caminhos éticos para o uso da tecnologia. Em 21% dessas organizações, especialistas em ética já foram contratados para compor o time. Veja a figura abaixo:

Fonte: estudo MIT_howAIleadschange

Além disso, questões de preconceitos também vêm à tona. Gerenciar os riscos de conceitos preestabelecidos em aplicativos de IA é fundamental para uma ciência de dados sólida. Isso porque ajustes inadequados podem comprometer modelos que preveem falhas em máquinas tão facilmente quanto podem distorcer modelos que impactam vidas humanas. Evidentemente, a gestão dos preconceitos é muito mais urgente nos modelos que fazem recomendações que afetam as pessoas, em que as consequências dos erros podem ser mais severas. Identificar e mitigar o risco de vieses requer que as organizações analisem os conjuntos de dados sob a ótica da diversidade e tragam diferentes pontos de vista à medida que os modelos são desenvolvidos.

Compartilhar:

Autoria

Equipe de conteúdo SAS

Artigos relacionados

Imagem de capa Aceite as limitações dos LLMsAssinante

Tecnologia e inovação

19 Dezembro | 2023

Aceite as limitações dos LLMs

Superestimar a capacidade dos grandes modelos de linguagem, como o ChatGPT, pode levar a resultados pouco confiáveis. Para lidar melhor com eles, é importante entender primeiro como funcionam

Mikhail Burtsev, Martin Reeves e Adam Job
Imagem de capa Open source contra os hackers da IA generativaAssinante

Tecnologia e inovação

19 Dezembro | 2023

Open source contra os hackers da IA generativa

A contratação de serviços de inteligência artificial pode expor seus dados e deixar sua empresa nas mãos das big techs. Mas existem alternativas. Estamos vivendo o início de uma fase semelhante à que deu origem ao Linux nos anos 1990, quando desenvolvedores do mundo todo se dedicaram a enfrentar os desafios da nova tecnologia com soluções de código aberto, disponíveis para todos – e veja cinco modos de administrar os respectivos

Aron Culotta e Nicholas Mattei
Imagem de capa Como aplicar IA generativa na inovação corporativaAssinante

Tecnologia e inovação

17 Dezembro | 2023

Como aplicar IA generativa na inovação corporativa

A nova tecnologia pode trazer eficiência e criatividade para a inovação em grandes empresas. Uma pesquisa recente mostra a realidade brasileira, os estágios de adoção em diversos setores, as oportunidades no horizonte e as barreiras de adoção

Maximiliano Carlomagno e Felipe Scherer
Imagem de capa Gestão pública 4.0: tecnologia para atender as demandas dos cidadãos

Tecnologia e inovação

15 Novembro | 2023

Gestão pública 4.0: tecnologia para atender as demandas dos cidadãos

A transformação digital pode ajudar na revolução da gestão municipal, melhorando a eficiência das instituições e fortalecendo a participação cidadã e a prestação de serviços mais ágeis, a partir dos aplicativos governamentais multiplataformas

Ana Debiazi e Aryana Valcanaia

2 min de leitura