top of page
criativos 2022.png

O Dilema da IA entre Marketing e Realidade: Professor Herman Gomes Analisa o "AI Washing" e a Crise de Credibilidade

Atualizado: 20 de nov.


Professor Herman Martins Gomes / Universidade Federal de Campina Grande / Projetos Certifica Som e Conecta Som
Professor Herman Martins Gomes / Universidade Federal de Campina Grande / Projetos Certifica Som e Conecta Som


A grande febre dos estudantes de tecnologia em todo o mundo é a Inteligência Artificial (IA). Ao mesmo tempo, é o tema mais quente no universo corporativo.


No entanto, um novo e alarmante estudo aponta um abismo entre o que as empresas dizem estar fazendo e o que realmente entregam.


O estudo "Global AI Confessions Report: CEO Edition", da Dataiku, que ouviu mais de 500 executivos nos EUA e Europa, é direto: mais de um terço dos projetos de IA (cerca de 35%) prioriza excessivamente a aparência e o marketing.


O foco no marketing em detrimento do impacto real gerou um novo termo no mundo dos negócios: o "AI Washing" (a "lavagem" de IA). linguagem computacional.


Alguns grandes investidores dos Estados Unidos, como Soros Fund Management e Tiger Global já indicam essa cautela ao reduzir posições na Nvidia e IAs.


Alguns observadores fazem comparações com o mercado imobiliário em 2008, acreditando que o setor de Big Tech tenha atingido um pico insustentável.


Os Estados Unidos são líderes em datacenters, com aproximadamente 5.427 (dados de novembro de 2025 com pequena variação de 10% por questões de análises metodológicas).


Essa concentração representa aproximadamente 45% de todos os data centers operacionais globalmente. A maior concentração está em estados como Virgínia, Texas e Califórnia.


Problemas ambientais e estruturais são agravantes. As comunidades e cidades que abrigam esses grandes complexos (especialmente as instalações que suportam a demanda crescente de Inteligência Artificial e cloud computing) estão enfrentando problemas principalmente relacionados ao consumo de recursos e à infraestrutura local.


The Dalles, no Oregon, gastou quase 25% da água potável - necessária para resfriar os computadores - , disponivel para a cidade em um datacenter do Google. O uso intensivo ameaça o abastecimento local, impacta a agricultura e o bem-estar de comunidades que depende de poços artesianos. Existe também sobrecarga de energia elétrica .


A operação 24 horas por dia de sistemas de resfriamento e ventiladores gera ruído constante, que se torna uma fonte de incômodo para os bairros vizinhos, especialmente em áreas rurais ou suburbanas onde essas instalações são frequentemente construídas.


Qual o resultado prático para a sociedade, compensa?


O atual cenário de euforia da Inteligência Artificial cria uma bolha especulativa porque o valor das ações das Big Seven (que detêm até 30% do S&P 500, na NASDAC a concentraçao é ainda mair, chegando a 45%) está desconectado do Retorno Financeiro (ROIC) real.


Enquanto trilhões são investidos em data centers e hardware (Nvidia), os lucros estratosféricos se concentram apenas nos fornecedores e gigantes de cloud, e não em um aumento generalizado da produtividade econômica.



A Fachada da IA: 35% de Foco Apenas em Marketing

O estudo "Global AI Confessions Report: CEO Edition", da Dataiku, que ouviu mais de 500 executivos nos EUA e Europa, é direto: Mais de um terço dos projetos de IA (cerca de 35%) prioriza excessivamente a aparência e o marketing.


Na prática, essas empresas estariam fazendo "AI Washing", fingindo usar a tecnologia para parecerem inovadoras e atrair investidores, sem que haja uma transformação real ou impacto concreto nos negócios. Os resultados financeiros e operacionais genuínos acabam sendo negligenciados em prol da narrativa corporativa.


A Guilhotina do C-Level: O Risco Pessoal do Fracasso em IA

O dilema da IA cria uma pressão inédita na liderança executiva, onde o fracasso tecnológico é um bilhete de saída:

●      70% dos CEOs preveem que serão demitidos se falharem na implementação de projetos de IA que entreguem ganhos de negócios mensuráveis.

●      A preocupação com o impacto ético e de segurança também é alta: 83% dos CEOs temem o impacto de falhas não intencionais da tecnologia nos clientes.


Na maioria dos casos de uso de tecnologia, o uso de IA é mais caro do que a criação ou utilizaçao de algorítmos já estabelecidos. Uma frase do cientista Jean-Pierre Briot, proferida em uma cátedra do CBAE / UFRJ sobre IA faz todo o sentido:


"A IA começa quando os algítmos terminam".


Mas a "IAmania" exclui procedimentos “tradicionais” de desenvolvimento de softwares, tornando-os coisas do passado, mesmo que sejam mais rápidos, baratos e eficazes em grande parte dos casos?


A urgência de "estar na moda" colide com a cautela necessária para uma implementação ética e funcional, transformando o uso da IA em um jogo de alto risco, podendo gerar prejuízos em toda a correia de transmissão da indústria de tecnologia e todas as áreas que estão usando tecnologia, desde o sistema bancário, financeiro a sistemas de segurança nas cidades inteligentes até a cultura e a economia criativa.


Casos Reais de 'AI Washing' e o Olhar dos Reguladores

O fenômeno do "AI Washing" já saiu do campo teórico e resultou em sanções regulatórias e colapsos corporativos nos Estados Unidos, com a SEC (Securities and Exchange Commission) e a FTC (Federal Trade Commission) atuando:

●      Fraude de Automação (Builder.ai): Uma startup que alegava ter uma solução de desenvolvimento de software totalmente automatizada por IA foi exposta por, na verdade, utilizar centenas de engenheiros humanos na Índia para escrever o código manualmente.

●      Alegações Falsas em Finanças (Delphia e Global Predictions): Essas empresas foram multadas pela SEC por fazer declarações enganosas a investidores sobre o uso de Machine Learning e algoritmos avançados em seus serviços de consultoria financeira.

●      Exagero de Capacidade em Biometria (IntelliVision Technologies): A empresa foi sancionada pela FTC por alegar que seu sistema de reconhecimento facial havia sido treinado com milhões de imagens, quando a base real era muito menor, comprometendo a precisão e a alegação de ausência de vieses.

●      Em musica, em especial streaming, já foram detectadas milhares de músicas fantasmas que desviam milhões de dólares em direitos autorais a cantores, bandas, compositores e produtores fakes, alguns baseados em paraísos fiscais, outros em algumas capitais tecnológicas. Esudo recente da DEEZER informa que 50 mil músicas criadas por IA sobem diariamente em sua plataforma. Evidentemente isso vai gerar um grande problema sistemico no direito autoral internacional.

 

Fontes: Estudo "Global AI Confessions Report: CEO Edition" da Dataiku (Dados sobre CEOs, AI Washing e medos); Sanções regulatórias da SEC e FTC (Casos Delphia, Global Predictions e IntelliVision); Reportagens de mercado (ETCFO e Exame/Builder.ai).



Entrevista Exclusiva: Professor Herman Martins Gomes


Para aprofundar o debate sobre o uso ético da IA e os cuidados que a indústria deve tomar, convidamos o Professor Herman Martins Gomes, um dos maiores especialistas brasileiros na área, para uma entrevista sobre o tema.


Herman Martins Gomes é Professor Associado da Universidade Federal de Campina Grande (UFCG) e possui PhD em Inteligência Artificial pela University of Edinburgh (Escócia). Sua vasta experiência concentra-se em áreas críticas da IA, como Visão Computacional, Redes Neurais, Biometria e Computação Afetiva (reconhecimento de emoções). Seu trabalho atual na UFCG inclui a coordenação de projetos de ponta que aplicam a IA em domínios sensíveis, como o ConectaSom/Certificasom, focado na aplicação de IA e blockchain para certificação e distribuição digital de músicas, um tema de grande relevância para a Cedro Rosa Digital.


( CRIATIVOS! ) Professor, como o mercado, sob a intensa pressão por inovação, pode discernir entre o verdadeiro avanço em IA e o mero "AI Washing"? Em sua experiência com Redes Neurais e Visão Computacional, quais são os "sinais técnicos" de que um sistema está sendo construído com integridade científica e não apenas para fins de marketing?


Herman Martins Gomes : É importante ter um olhar crítico e se basear em fatos. É preciso ir além do discurso de marketing e realmente avaliar o impacto, a transparência e se as ideias fazem sentido na prática. Os sinais técnicos passam pela transparência no processo de desenvolvimento, com a divulgação de relatórios técnicos ou publicação de artigos científicos que evidenciem as tecnologias da IA adotadas, apresentem avaliações experimentais ou comparações com técnicas do estado-da-arte. Os processos metodológicos utilizados na concepção e no desenvolvimento do sistema também devem ser claros. Por exemplo, se o sistema requer o treinamento de uma Rede Neural para análise de imagens, é fundamental indicar o volume e a fonte dos dados, demonstrar que a propriedade intelectual associada às imagens foi respeitada, detalhar os procedimentos para combater viés de treinamento (e.g. um problema que ocorre quando sistema só funciona bem para algumas classes de imagens), entre outros. Numa publicação científica, em particular, o processo de revisão por especialistas certamente assegura maior confiança nas alegações sobre o uso da IA. A boa notícia é que tem sido cada vez mais frequente grandes empresas divulgarem  documentação técnica, artigos científicos e até mesmo código, modelos de IA pré-treinados além de dados  sobre os seus avanços tecnológicos, estimulando uma cultura de reprodutibilidade e maior transparência sobre os diferentes usos da IA.


( CRIATIVOS! ) Com a pesquisa mostrando que o fracasso em IA é a principal ameaça ao emprego de um CEO, a rapidez na implementação pode atropelar o rigor. De um ponto de vista técnico e ético, qual é o processo fundamental que uma liderança executiva deve exigir — e não apenas delegar — para garantir que seus projetos de IA sejam éticos, auditáveis e, de fato, geradores de valor a longo prazo?

 

Herman Martins Gomes: Um CEO precisa liderar a implementação de processos robustos para o desenvolvimento e uso responsável da IA.  Sistemas de IA precisam ser guiados por princípios éticos. O dirigente tem que ser capaz de responder a perguntas como: de que forma as decisões automatizadas são tomadas  (explicabilidade)? A privacidade está sendo respeitada? É necessário também implantar processos contínuos de revisão e auditoria, para evitar erros, vieses e impactos negativos.  Deve também oferecer treinamentos sobre ética e IA aos seus subordinados, de modo que toda a comunidade esteja aderente aos mesmos princípios. Por fim, deve-se buscar alinhamento a diretrizes internacionais, a exemplo dos princípios de IA da OCDE e do “AI Act” da União Européia, que focam no respeito aos direitos humanos e valores democráticos, e que priorizam crescimento inclusivo,  justiça,  transparência,  segurança e uso responsável da tecnologia.  Outra referência a ser considerada por CEOs é a norma ISO/IEC 42001 que trata da Governança de IA, um área emergente cujo foco é justamente a gestão contínua de sistemas de IA e de seus impactos.

 

( CRIATIVOS! ) Sua pesquisa envolve áreas sensíveis como Biometria e Análise de Expressões Faciais. Quando a IA lida com dados que podem levar a decisões de alto impacto (seja financeiro ou de segurança), como os desenvolvedores podem aplicar, na prática, os princípios de não-viés para evitar que o algoritmo reproduza e amplifique preconceitos sociais, protegendo assim a confiança e a reputação da empresa, conforme a preocupação de 83% dos CEOs?

 

Herman Martins Gomes: É preciso fazer um trabalho rigoroso de preparação dos dados para treinamento e validação dos modelos de IA. Os exemplos de treinamento não devem conter decisões incorretas de modo a comprometer as inferências do modelo na fase de uso. Caso seja necessária rotulagem humana dos dados, é importante incorporar várias etapas de validação antes de realizar o treinamento da IA. Os dados precisam ser adquiridos de modo a representarem adequadamente as diferentes categorias de treinamento, tais como raça, gênero e  faixas etárias.  Caso estes cuidados não sejam tomados, é muito provável que o sistema funcione bem para certas categorias e apresente erros elevados para outras. Por último, utilizar dados sensíveis (como o gênero ou raça) como entradas de um modelo de classificação pode gerar decisões automáticas consideradas preconceituosas.

 

( CRIATIVOS! ) Seu envolvimento em projetos como o CertificaSom ConectaSom, que une IA e blockchain para o mercado musical, toca na gestão de direitos autorais. Em domínios onde a IA define a justa remuneração e a visibilidade dos criadores, como podemos usar a Inteligência Artificial para garantir a equidade e a transparência, mitigando o risco de um algoritmo concentrar o valor apenas em certos grupos, inadvertidamente?

 

Herman Martins Gomes:  Além dos cuidados com os dados de treinamento mencionados na questão anterior, o conceito de transparência mencionado na segunda questão é chave em domínios críticos. Um sistema transparente deve permitir que seus usuários entendam como as decisões são tomadas. Por exemplo, criadores devem ter acesso a informações claras sobre cálculo de remunerações e sobre como a sua visibilidade e de suas obras são definidas na plataforma digital. Embora a IA possa ajudar automatizar decisões, a intervenção humana continua sendo necessária para garantir a justiça em casos complexos ou contestados. Adicionalmente,  uma plataforma de IA deve ter canais acessíveis para que os criadores solicitem revisões por humanos qualificados sempre que necessário.

 

(CRIATIVOS!): Focando na Cedro Rosa Digital, uma plataforma que tem o desafio de indexar, certificar e distribuir conteúdo musical, o senhor que trabalha com Indexação e Recuperação de Conteúdo em Imagens, Vídeos e Textos: qual o cuidado técnico mais urgente que deve ser tomado no design de arquitetura da plataforma (seja no sistema de busca, matchmaking ou recomendação) para assegurar que a IA promova todos os criadores de forma transparente, evitando os shadowbans ou a concentração algorítmica de visibilidade?


Herman Martins Gomes: Primeiramente, é importante promover diversidade e representatividade nos dados de entrada para o algoritmo de indexação e recomendação de músicas e artistas, levando em conta diferentes estilos, regiões, idiomas e perfis os criadores. Todos devem ter as mesmas chances de serem encontrados. Por exemplo, durante a criação de uma playlist a partir dos gêneros de interesse de um usuário,  o algoritmo precisa recomendar músicas diversificadas, sem priorizar determinados compositores, intérpretes ou regiões do país.

 

Comentários


+ Confira também

Destaques

Essa Semana

bottom of page