O uso de ferramentas de inteligência artificial (IA) para melhores tomadas de decisões vêm crescendo bastante dentro das organizações.
Contudo mesmo com o crescimento, pelo menos 65% (quase dois terços) das companhias não conseguem explicar como as decisões ou previsões dos seus modelos de IA são feitas,.
O estudo cuja intitulação é “O estado da IA responsável: 2021” foi realizado pela FICO, líder mundial em software preditiva, em parceria com a empresa de inteligência de mercado Corinium e revelados em Webinar para a imprensa, na última terça-feira (14).
Realizada com base em entrevistas com 100 líderes de grandes empresas globais, incluindo companhias brasileiras, a pesquisa revelou uma grande falta de conhecimento sobre como a IA está sendo usada e se está sendo utilizada de forma responsável, tendo em vista que 39% dos membros de conselho e 33% das equipes executivas afirmam ter um entendimento incompleto sobre ética da IA.
Vale ressaltar ainda que 73% dos entrevistados afirmaram que têm enfrentado dificuldades para obter suporte executivo para priorizar a ética e as práticas responsáveis de IA.
“Nos últimos 15 meses, mais e mais empresas têm investido em ferramentas de IA, mas elas não elevaram a importância de sua governança e da IA responsável para o nível da diretoria”, afirma Scott Zoldi, Chief Analytics Officer da FICO.
“As organizações estão cada vez mais aproveitando essa tecnologia para automatizar processos-chave, que em alguns casos estão tomando decisões que mudam a vida de seus clientes. A liderança deve compreender essa questão e monitorar os modelos utilizados, de forma a garantir que as decisões sejam justas, transparentes e responsáveis”.
Recursos alocados para projetos de IA teve aumento nos últimos 12 meses
Cerca de metade (49%) dos executivos entrevistados relatou um aumento nos recursos alocados para projetos de IA nos últimos 12 meses.
Por outro lado, apenas 39% afirmam que suas empresas estão investindo em governança de modelos durante o processo de desenvolvimento, enquanto 33% dizem que estão prestando pouca atenção ao monitoramento e manutenção dos modelos em produção.
Não há consenso entre os executivos sobre quais devem ser as responsabilidades de uma empresa quando se trata de IA, de acordo com o estudo.
A maioria dos entrevistados (55%) concorda que os sistemas de IA para ingestão de dados devem atender aos padrões éticos básicos e que os sistemas usados para operações de backoffice também devem ser explicáveis.
Porém, quase metade dos entrevistados (43%) dizem que não têm responsabilidades além de cumprir a conformidade regulamentar para gerenciar eticamente os sistemas de IA, cujas decisões podem afetar indiretamente a vida das pessoas – como nos casos de modelos de segmentação de audiência, modelos de reconhecimento facial e sistemas de recomendação.
Apenas um quinto dos entrevistados (20%) monitora ativamente seus modelos de IA em termos de justiça e ética, enquanto somente 22% afirmam que sua organização tem um conselho para avaliar essas questões. Um em cada três (33%) tem uma equipe de validação para avaliar os modelos recém-desenvolvidos e apenas 38% dizem que têm etapas de mitigação de viés de dados incorporadas aos processos de desenvolvimento.
Em termos de visão de futuro, a grande maioria (90%) concorda que processos ineficientes para monitoramento de modelos representam uma barreira para a adoção de IA. E quase dois terços (63%) acreditam que a IA ética e a IA responsável se tornarão um elemento central da estratégia de sua organização dentro de dois anos.
O levantamento recomenda algumas práticas para ajudar as organizações a traçar um caminho para a IA responsável:
● Estabelecer práticas que protejam a empresa contra ameaças à reputação do uso irresponsável de IA;
● Equilibrar a necessidade de ser responsável com a necessidade de trazer novas inovações para o mercado rapidamente;
● Garantir suporte executivo para priorizar a ética da IA e práticas responsáveis;
● Elaborar políticas preparadas para o futuro em antecipação a regulamentações mais rígidas em torno da IA;
● Disponibilizar os recursos necessários para garantir que os sistemas de IA sejam desenvolvidos e gerenciados de forma responsável.
“A comunidade empresarial está comprometida em impulsionar a transformação por meio da automação alimentada por IA. No entanto, os líderes seniores e os conselhos precisam estar cientes dos riscos associados à tecnologia e das melhores práticas para mitigá-los de forma proativa. A IA tem o poder de transformar o mundo, mas como diz o ditado popular – quanto maior o poder, maior a responsabilidade”, acrescenta Zoldi.
O estudo “O estado da IA responsável: 2021” foi realizado entre fevereiro e março de 2021, com base em entrevistas com 100 líderes de empresas com receitas anuais acima de US$ 100 milhões. Todos os entrevistados possuíam cargos C-Level, incluindo vice-presidente de dados, vice-presidente de analíticos, vice-presidente de dados e analíticos e vice-presidente de IA. Foram selecionados executivos dos EUA, América Latina, Europa, Oriente Médio, África e Ásia, sendo que todas essas regiões foram igualmente representadas.
Clique aqui para acessar o estudo completo.
A FICO
Líder mundial em software de análise preditiva, a FICO é especializada em examinar dados e aplicar tecnologias como inteligência artificial, machine learning e analíticos para prever o comportamento do consumidor, otimizando as interações das empresas com seus clientes.
Com atuação em mais de 100 países, a empresa desenvolveu uma plataforma na nuvem que contribui com a tomada de mais de 10 bilhões de decisões de negócio por ano e que protege 2,6 bilhões de cartões contra fraudes.
A FICO reúne mais de 204 patentes globais de tecnologias que aumentam a lucratividade e a satisfação do cliente, colaborando para o crescimento de empresas de diversos segmentos, como financeiro, seguros, varejo, telecomunicações, entre outros.
Fundada em 1956 e com sede no Vale do Silício, a FICO inaugurou seu escritório no Brasil em 1998.