Por baixo de manchetes aspiracionais e avanços técnicos explosivos, os projetos de IA têm um pobre histórico. A Gartner, a HBR estima que até 85% dos projetos de IA falham antes ou após o lançamento, o dobro da taxa para software.
É bem sabido que a IA é mais difícil de implantar do que o software: a IA tem resultados indeterminísticos. A IA experimenta incerteza de capacidade nas mãos dos usuários. As consequências não intencionais pós-lançamento resultam em más notícias e perda de confiança do usuário nos sistemas de IA. Os custos e o ROI também são difíceis de justificar antecipadamente.
Estes são sistemas de IA que incluem e vão além da IA gerativa: sistemas de recomendação, carros autônomos, visão computacional, diagnóstico de saúde, robôs autônomos, avaliação de risco financeiro e muito mais.
Coletados de fontes que abrangem 10 anos de pesquisa acadêmica e industrial, as razões detalhadas estão abaixo:
(1) Os sistemas de IA não resolvem o problema correto (2) Falha na inovação em IA (3) Os sistemas de IA não alcançam um desempenho bom o suficiente e não são úteis (4) As pessoas perdem frutas de baixo custo (5) Os sistemas de IA não geram valor suficiente (6) Ética, preconceito, dano social
1. Os sistemas de IA não resolvem o problema correto
“Os cientistas de dados criam coisas que as pessoas não querem. Os designers criam coisas que não podem ser construídas” John Zimmerman, CMU
Os cientistas de dados e os especialistas técnicos geralmente são isolados, raramente interagem com o resto do negócio, portanto, criam projetos que é improvável que entreguem uma mudança transformadora e de valor.
Os designers estão em melhor posição para tornar uma tecnologia útil e usável porque eles abordam os problemas do ponto de vista dos usuários. No entanto, eles (1) geralmente não são convidados a participar até o final dos projetos quando as decisões funcionais já foram tomadas, (2) não possuem abstrações das capacidades da IA para trabalhar; a pesquisa em IA se concentra principalmente nos mecanismos (como algo funciona tecnicamente), não nas capacidades (o que ele pode fazer para as pessoas, portanto, se tornar um produto).
Os cientistas de dados trabalham no espaço de melhorar e inventar mecanismos. Os designers e gerentes de produto trabalham no espaço de transformar uma capacidade em um produto desejável.
A Procter & Gamble temporariamente incorporou cientistas de dados em unidades de negócios. A Accenture Song explorou a inovação em IA com ciência de dados e design. Pesquisadores realizaram sessões de ideiação bem-sucedidas da IA com equipes de cientistas de dados, designers, especialistas em domínio. Mais pesquisas foram realizadas desde então: “os participantes do design pareceram ter mais sucesso quando se envolveram em uma colaboração contínua com os cientistas de dados para ajudar a imaginar o que fazer e quando abraçaram uma cultura centrada em dados...”
Outros propõem priorizar os casos de uso da IA primeiro pelo impacto, segundo pelo risco, terceiro pelos dados: “Temos os dados para fazer este caso de uso? Temos permissão para usá-lo? Está limpo o suficiente para ser útil? Se não passarmos nesta etapa, não começamos. Encontre outro caso de uso.”
2. Falha na inovação em IA
Os avanços técnicos geralmente são seguidos por inovações de design. Uma nova tecnologia habilitadora leva as pessoas a imaginar novas formas da tecnologia, incorporadas a diferentes aspectos da vida.
Os engenheiros criam novas tecnologias que permitem novas capacidades. Os designers não inventam novas tecnologias. Em vez disso, eles criam novos conjuntos de tecnologias conhecidas (Louridas, 1999)
No entanto, os últimos 60 anos de pesquisa em IA não experimentaram uma riqueza de inovação de design como outras tecnologias. Parcialmente porque a IA tem sido tradicionalmente invisível, proativamente fornecendo resultados, difícil de detectar o uso, para projetar com.
A IA gerativa trouxe a IA central para a interface: a revolução da IA de hoje é sobre UX. As pessoas interagem diretamente com os modelos da IA e ajustam os resultados de volta e para frente. No entanto, outras formas de IA são raramente discutidas, geralmente passando despercebidas.
Os pesquisadores se referem a isso como o ‘gap de inovação em IA’, comumente atribuído a duas sintomas da ciência de dados.
Dois sintomas da ciência de dados
(1) Falta de ideiação efetiva. A maior parte do tempo dos cientistas de dados é gasta na análise, na construção de modelos, na extração de insights valiosos dos dados. Pouco tempo é gasto na ideiação: descobrindo os problemas certos para resolver com dados. Em vez de se concentrar imediatamente em uma ideia, o que são cem ideias alternativas que podem ser uma pergunta melhor para fazer em primeiro lugar?
(2) Falta de modelos mentais efetivos e comunicá-los. A responsabilidade geralmente recai sobre os desenvolvedores de IA para explicar conceitos de ciência de dados aos seus colaboradores. Lacunas de comunicação ocorrem na prática, especialmente ao transmitir conhecimento técnico e seu valor. Barr Moses observa, ‘a dura realidade é que nem mesmo os criadores da IA estão totalmente certos de como ela funciona‘. Soluções foram propostas: framework de sensibilização, modelos mentais compartilhados.
E dois sintomas do design
(1) Os designers não percebem lugares óbvios onde o ML pode melhorar a UX. O Starbucks tem um modelo de cartão-presente. O aplicativo do Starbucks pode levar você automaticamente para a tela de pagamentos quando detectar que você está em uma loja, mas os usuários ainda são forçados a navegar até a seção de pagamentos repetidamente. Isso não é difícil de fazer, mas um lugar não percebido onde a IA pode oferecer grande conveniência.
(2) Os designers têm conhecimento clichê sobre a IA, impulsionado pelo hype da mídia e pela crítica. Os designers tendem a criar capacidades inspiradas na ficção científica que a IA não pode fazer de forma realista, em vez de produtos de IA com menos risco e prontos para o lançamento. A percepção dos usuários finais também é influenciada pela mídia, pensando que a IA os substituirá, agirá como um humano, funcionará de forma determinística. Isso resulta em dois agentes adaptativos mútuos para projetar, tanto o sistema de IA probabilístico quanto o usuário com expectativas e modelos mentais de IA pouco claros.
3. Os sistemas de IA não alcançam um desempenho bom o suficiente e não são úteis
Existem vários cenários em que os sistemas de IA têm dificuldade em alcançar um desempenho satisfatório, resultando em sistemas que podem não ser úteis.
Ao olhar de perto, essas são realmente situações em que a IA não é adequada para a tarefa, e a transferência para um parceiro humano é uma escolha mais promissora:
Diagnóstico de saúde para doenças raras. Os sistemas de tomada de decisão clínica de saúde oferecem previsões para cenários comuns. Mas os médicos realmente querem ajuda durante cenários pouco comuns, exatamente onde a IA tem um desempenho ruim.
Moderação de conteúdo automatizada para nuances semânticas. Os sistemas de moderação de conteúdo da IA podem ter dificuldade em identificar com precisão a linguagem nuançada: sátira, sarcasmo, referências culturais. Os sistemas podem remover o conteúdo que não está realmente violando as diretrizes, quando eles deveriam, em vez disso, ser marcados para uma pessoa confirmar.
Veículos autônomos respondendo às mudanças ambientais. Os veículos são treinados para parar em sinais de pare. Mas quando um guarda de trânsito segura aleatoriamente um sinal de pare no meio da rua, o veículo para e não sabe como prosseguir. Os sistemas têm dificuldade com situações novas, incluindo obstáculos climáticos imprevisíveis que mudam antes que eles possam reagir, espaço negativo como uma vala no chão.
Em vez disso, aplique a IA onde a IA se destaca:
(1) Tarefas mundanas, repetitivas de entrada de dados em que a IA mitiga o erro humano. Anotar notas, procurar informações, classificar álbuns de fotos por pessoa, tempo, localização.
(2) Classificar grandes conjuntos de dados em escala e fornecer insights, padrões, recomendações. Exemplos incluem resumos de reuniões, marcar momentos no tempo com base em palavras-chave ou visuais, encontrar um balão espião estrangeiro olhando pelos dados do mundo.
(3) Tarefas rápidas, em tempo real que as pessoas não podem fazer mentalmente ou fisicamente. Robôs autônomos rotativos de armazéns, ou manobrando para lugares remotos do mundo para capturar dados, inspecionar infraestrutura, tirar a adivinhação dos soldados colocando-se em risco.
(4) Colaboração humano-IA. Co-pilotos, agentes, parceiros da IA, qualquer termo que você goste. Esse conceito se origina da supervisão de robôs. A Escala Sheridan-Verplank descreve os níveis de interação humano-máquina, desde nenhuma autonomia até máquinas totalmente autônomas. Para robôs, a pesquisa mostra que os níveis intermediários não funcionam. Há uma carga cognitiva alta para uma pessoa que transita da supervisão da máquina para assumir totalmente a tarefa. Mesmo em interfaces de computador, o projeto de transferências efetivas preparará as pessoas para anticipar, então participar das tarefas.
4. As pessoas perdem frutas de baixo custo
Existem oportunidades simples de IA alinhadas com os objetivos do usuário e do negócio, mas as empresas não as constroem.
O Instagram quer que os influenciadores publiquem para atrair olhares, mas não aprende quais tags os influenciadores usam com frequência, forçando os influenciadores a digitar as mesmas tags repetidamente. Não é difícil de construir, mas uma oportunidade de IA não percebida.
Os carros autopilotados servem apenas a um pequeno grupo de usuários que vivem em subúrbios e tem medo de estacionar na cidade. Construir a IA para um carro se estacionar sozinho é muito difícil. Mas começa com uma previsão simples que pode estar em todos os carros: essa vaga é grande o suficiente? Há uma mentalidade para fazer as capacidades da IA difíceis, em vez de úteis.
Mesmo a IA simples pode fazer manchetes. Construído por ex-colegas: Detecção de acidentes, a IA pode salvar vidas e ligar para a ajuda. Detecção de lavagem de mãos, mantendo-o seguro e higiênico durante a COVID. Manutenção preditiva: prevenindo quedas de energia e mantendo a infraestrutura do mundo em funcionamento. Autocorreção: nunca mais envie uma mensagem de texto envergonhada.
5. Os sistemas de IA não geram valor suficiente
Custo elevado para construir e manter, retornos baixos.
O Alexa foi lançado com a intenção de as pessoas encomendarem mais produtos da Amazon. Em vez disso, as pessoas usaram o Alexa para tocar música. Agora, toda vez que as pessoas pedirem ao Alexa para tocar música em vez de fazer compras, a Amazon perderá dinheiro.
Cento de ferramentas de IA foram construídas para pegar a COVID. Equipes de pesquisa em todo o mundo se juntaram para ajudar. O software foi desenvolvido para permitir que os hospitais diagnosticassem ou triagem os pacientes mais rápido. No entanto, nenhum deles funcionou, alguns foram nocivos. Muitos problemas estavam ligados a dados pobres. Isso levou a uma adoção reduzida e problemas de investimento, um exemplo de alto investimento em IA com baixo valor de serviço.
Da mesma forma, o IBM Watson para Oncologia foi um sucesso técnico no desenvolvimento de IA capaz de processar e recomendar tratamentos contra o câncer. Mas ele não gerou ROI suficiente devido aos altos custos de desenvolvimento, desafios de integração e impacto limitado na melhoria dos resultados do tratamento além do conhecimento médico existente. Subótimo para os retornos financeiros.
Considerações de design
As expectativas infladas são decepcionadas quando a IA não realiza as tarefas como prometido. Mas essas tarefas podem não ser realizáveis ainda com base nos dados disponíveis. Em vez disso, projete a IA para o que ela é capaz de fazer. As situações incluem quando (1) há um baixo risco de se obter resultados errados ou mitigações, (2) as máquinas podem minimizar o erro humano, (3) a IA é esperada para ser uma estagiária, não um especialista, e quando (4) ter uma estagiária de IA é melhor do que nada.
Mais detalhes em Projetando produtos e serviços de IA bem-sucedidos.
6. Ética, preconceito, dano social
A ética da IA é ampla, mas inclui três temas centrais: preconceito, privacidade, transparência.
(1) O preconceito ocorre quando os dados de treinamento disponíveis não representam com precisão a população que a IA pretende atender. Por exemplo, a IA pode julgar a duração da prisão de alguém, prever a probabilidade de que ele cometa um crime futuro. Mas os sistemas são inerentemente racistas em relação a homens negros, refletindo preconceitos humanos nos dados. A IA pode avaliar a viabilidade de diagnosticar um tipo de câncer que afeta homens e mulheres. Mas se a empresa tiver dados apenas de homens, os modelos fornecerão resultados tendenciosos para mulheres.
(2) A privacidade exige que os modelos de IA sejam seguros e não vazem dados pessoais. O acesso não autorizado, o uso indevido ou as violações podem levar ao roubo de identidade, à discriminação, entre outros danos. O Stanford HAI apresenta três sugestões para mitigar os riscos de privacidade dos dados. Os princípios de Privacy by Design da Ann Cavoukian fornecem uma medida matemática da privacidade dos dados.
(3) A transparência sugere que os usuários precisam entender como os modelos de IA funcionam para avaliar suas forças, limitações, funcionalidade. O campo da IA explicável (XAI) surgiu da IA que cada vez mais apoia decisões de alta consequência, desde a saúde até a justiça criminal. Agora ‘transparência’ é amplamente usado como um padrão de design para nivelar as expectativas do usuário. Mais informações de Joseph George Lewis sobre XAI. A transparência também permite que as pessoas entendam, confiem e gerenciem eficazmente seus parceiros inteligentes quando as decisões são limitadas pela incapacidade da máquina de explicar pensamentos e ações durante situações críticas.
Duas distinções
(1) Sistemas transparentes criam modelos que podem explicar seu raciocínio de uma forma que os humanos possam compreender.
(2) Sistemas interpretáveis criam modelos que podem não ser transparentes, mas ainda são compreensíveis e previsíveis, reconhecendo que as técnicas de aprendizado profundo podem ser particularmente complexas e difíceis de explicar.
A pesquisa em HCI e IA produziu muitas visualizações de algoritmos centradas no usuário, interfaces e ferramentas para ajudar na alfabetização em IA: TensorFlow playground, Wekinator, Kit de ferramentas de explicabilidade da IA 360, Facetas do Google.
Dois campos
(1) IA centrada no usuário defende sistemas projetados para serem acessíveis a indivíduos sem conhecimento técnico ou especialização em IA. Produtos que incorporam essa perspectiva: Máquina ensinável do Google, CreateML da Apple, Lobe.ai da Microsoft, ferramentas de IA gerativa. Da pesquisa: como não especialistas constroem modelos, aprendizado de máquina colaborativo com famílias.
(2) IA centrada em especialistas desenvolve sistemas de IA para especialistas em domínio com conhecimento profundo. Os sistemas geralmente são complexos e personalizáveis, pense no Co-piloto do GitHub, no Einstein Einstein da Salesforce. Projetado para especialistas familiarizados com fluxos de trabalho e taxonomia específicos. Os iniciantes e os não especialistas ficam perdidos tentando descobrir como esses sistemas funcionam.
A ciência de dados e o design cresceram de diferentes disciplinas. Mas cada vez mais conectados em produtos de IA, quando as experiências da IA estão mais próximas de moderar as experiências do usuário.
A indústria (com fins lucrativos) não é boa em pensamento crítico, fazendo coisas úteis com consequências não intencionais. A academia (sem fins lucrativos) é boa em pensamento crítico, atuando como críticos bem informados, muitas fontes citadas nesta peça.
Todos são necessários para a IA.