Pesquisa global FICO revela que 65% das empresas têm dificuldades com as decisões em IA

ia-estudo-fico

O uso de ferramentas de inteligência artificial (IA) para melhores tomadas de decisões vêm crescendo bastante dentro das organizações.

Contudo mesmo com o crescimento, pelo menos 65% (quase dois terços) das companhias não conseguem explicar como as decisões ou previsões dos seus modelos de IA são feitas,.

O estudo cuja intitulação é “O estado da IA responsável: 2021” foi realizado pela FICO, líder mundial em software preditiva, em parceria com a empresa de inteligência de mercado Corinium e revelados em Webinar para a imprensa, na última terça-feira (14).

Realizada com base em entrevistas com 100 líderes de grandes empresas globais, incluindo companhias brasileiras, a pesquisa revelou uma grande falta de conhecimento sobre como a IA está sendo usada e se está sendo utilizada de forma responsável, tendo em vista que 39% dos membros de conselho e 33% das equipes executivas afirmam ter um entendimento incompleto sobre ética da IA.

Vale ressaltar ainda que 73% dos entrevistados afirmaram que têm enfrentado dificuldades para obter suporte executivo para priorizar a ética e as práticas responsáveis de IA.

“Nos últimos 15 meses, mais e mais empresas têm investido em ferramentas de IA, mas elas não elevaram a importância de sua governança e da IA responsável para o nível da diretoria”, afirma Scott Zoldi, Chief Analytics Officer da FICO.

“As organizações estão cada vez mais aproveitando essa tecnologia para automatizar processos-chave, que em alguns casos estão tomando decisões que mudam a vida de seus clientes. A liderança deve compreender essa questão e monitorar os modelos utilizados, de forma a garantir que as decisões sejam justas, transparentes e responsáveis”.

Recursos alocados para projetos de IA teve aumento nos últimos 12 meses

Cerca de metade (49%) dos executivos entrevistados relatou um aumento nos recursos alocados para projetos de IA nos últimos 12 meses.

Por outro lado, apenas 39% afirmam que suas empresas estão investindo em governança de modelos durante o processo de desenvolvimento, enquanto 33% dizem que estão prestando pouca atenção ao monitoramento e manutenção dos modelos em produção.

Não há consenso entre os executivos sobre quais devem ser as responsabilidades de uma empresa quando se trata de IA, de acordo com o estudo.

A maioria dos entrevistados (55%) concorda que os sistemas de IA para ingestão de dados devem atender aos padrões éticos básicos e que os sistemas usados para operações de backoffice também devem ser explicáveis.

Porém, quase metade dos entrevistados (43%) dizem que não têm responsabilidades além de cumprir a conformidade regulamentar para gerenciar eticamente os sistemas de IA, cujas decisões podem afetar indiretamente a vida das pessoas – como nos casos de modelos de segmentação de audiência, modelos de reconhecimento facial e sistemas de recomendação.

Apenas um quinto dos entrevistados (20%) monitora ativamente seus modelos de IA em termos de justiça e ética, enquanto somente 22% afirmam que sua organização tem um conselho para avaliar essas questões. Um em cada três (33%) tem uma equipe de validação para avaliar os modelos recém-desenvolvidos e apenas 38% dizem que têm etapas de mitigação de viés de dados incorporadas aos processos de desenvolvimento.

Em termos de visão de futuro, a grande maioria (90%) concorda que processos ineficientes para monitoramento de modelos representam uma barreira para a adoção de IA. E quase dois terços (63%) acreditam que a IA ética e a IA responsável se tornarão um elemento central da estratégia de sua organização dentro de dois anos.

O levantamento recomenda algumas práticas para ajudar as organizações a traçar um caminho para a IA responsável:

● Estabelecer práticas que protejam a empresa contra ameaças à reputação do uso irresponsável de IA;

● Equilibrar a necessidade de ser responsável com a necessidade de trazer novas inovações para o mercado rapidamente;

● Garantir suporte executivo para priorizar a ética da IA e práticas responsáveis;

● Elaborar políticas preparadas para o futuro em antecipação a regulamentações mais rígidas em torno da IA;

● Disponibilizar os recursos necessários para garantir que os sistemas de IA sejam desenvolvidos e gerenciados de forma responsável.

“A comunidade empresarial está comprometida em impulsionar a transformação por meio da automação alimentada por IA. No entanto, os líderes seniores e os conselhos precisam estar cientes dos riscos associados à tecnologia e das melhores práticas para mitigá-los de forma proativa. A IA tem o poder de transformar o mundo, mas como diz o ditado popular – quanto maior o poder, maior a responsabilidade”, acrescenta Zoldi.

O estudo “O estado da IA responsável: 2021” foi realizado entre fevereiro e março de 2021, com base em entrevistas com 100 líderes de empresas com receitas anuais acima de US$ 100 milhões. Todos os entrevistados possuíam cargos C-Level, incluindo vice-presidente de dados, vice-presidente de analíticos, vice-presidente de dados e analíticos e vice-presidente de IA. Foram selecionados executivos dos EUA, América Latina, Europa, Oriente Médio, África e Ásia, sendo que todas essas regiões foram igualmente representadas.

Clique aqui para acessar o estudo completo.

A FICO

Líder mundial em software de análise preditiva, a FICO é especializada em examinar dados e aplicar tecnologias como inteligência artificial, machine learning e analíticos para prever o comportamento do consumidor, otimizando as interações das empresas com seus clientes.

Com atuação em mais de 100 países, a empresa desenvolveu uma plataforma na nuvem que contribui com a tomada de mais de 10 bilhões de decisões de negócio por ano e que protege 2,6 bilhões de cartões contra fraudes.

A FICO reúne mais de 204 patentes globais de tecnologias que aumentam a lucratividade e a satisfação do cliente, colaborando para o crescimento de empresas de diversos segmentos, como financeiro, seguros, varejo, telecomunicações, entre outros.

Fundada em 1956 e com sede no Vale do Silício, a FICO inaugurou seu escritório no Brasil em 1998.

Sair da versão mobile