diretório (no disco rígido do computador)
1. introdução
Acreditamos que a criação e a operação de produtos com IA é a nova fronteira da concorrência, e as vozes dos arquitetos, engenheiros e líderes de produtos que conduzem esse esforço merecem mais atenção. Enquanto o relatório de IA do ano passado se concentrou na jornada de compra e na dinâmica de adoção corporativa, o relatório de 2025 muda o foco para o "como": como conceituar, fornecer e dimensionar produtos alimentados por IA do início ao fim.
O relatório deste ano se aprofunda nas principais dimensões do manual do construtor:
- Roteiro e arquitetura do produtoPráticas recomendadas emergentes para equilibrar a experimentação, a velocidade de entrada em operação e o desempenho em cada estágio da evolução do modelo.
- Estratégia de entrada no mercadoComo as equipes podem adaptar os modelos de preços e as estratégias de entrada no mercado para refletir os fatores de valor exclusivos da IA.
- Pessoas e talentosEquipe de IA: Monte a equipe certa para aproveitar a experiência em IA, promover a colaboração multifuncional e sustentar a inovação ao longo do tempo.
- Gerenciamento de custos e retorno sobre o investimentoEstratégias de gastos e benchmarks relacionados à criação e ao lançamento de produtos de IA.
- Produtividade e operações internasComo as empresas estão incorporando a IA em seus fluxos de trabalho diários e os maiores impulsionadores da produtividade.
2. criar produtos de IA generativa
2.1 Tipos de produtos de IA
- Fluxo de trabalho de proxy e camada de aplicativosé o tipo mais comum de produto criado por empresas nativas de IA e habilitadas para IA. Notavelmente, cerca de 80% das empresas nativas de IA estão atualmente criando fluxos de trabalho de agentes.
2.2 Uso de modelos
- A maioria das empresas que criam aplicativos de IA depende de APIs de IA de terceiros; no entanto, as empresas de alto crescimento também estão ajustando os modelos básicos existentes e desenvolvendo modelos proprietários a partir do zero.
2.3 Principais considerações na seleção de um modelo básico
- desenvolvimento de produtosAo selecionar um modelo básico para casos de uso de clientes, as empresas priorizam a precisão do modelo em relação a todos os outros fatores.
No relatório de IA do ano passado, o custo foi classificado como a principal consideração de compra mais baixa em comparação com outros fatores, como desempenho, segurança, personalização e controle. Notavelmente, o custo foi muito mais alto nos dados deste ano, o que pode refletir a comoditização das camadas de modelos com o surgimento de modelos mais econômicos, como o DeepSeek.
2.4 Principais provedores de modelos
- Modelo GPT da OpenAIcontinua sendo o modelo mais usado; no entanto, muitas empresas estão adotando cada vez mais uma abordagem de vários modelos para desenvolver produtos de IA para diferentes casos de uso.
exegese: (1) Empresas que criam aplicativos para o usuário final e modelos/tecnologias centrais de IA.
As empresas estão adotando cada vez mais uma abordagem de vários modelos para o desenvolvimento de produtos de IA, aproveitando diferentes fornecedores e modelos com base em casos de uso, desempenho, custo e requisitos do cliente. Essa flexibilidade permite que elas otimizem diferentes aplicações, como segurança cibernética, automação de vendas e atendimento ao cliente, ao mesmo tempo em que garantem a conformidade entre regiões e uma experiência de usuário superior. As arquiteturas estão sendo construídas para dar suporte à troca rápida de modelos, com algumas empresas preferindo modelos de código aberto para vantagens de custo e velocidade de raciocínio.
Normalmente, a maioria dos entrevistados está usando modelos da OpenAI e um ou dois modelos de outros fornecedores.
Usamos modelos proprietários e de terceiros diferentes porque nossos clientes têm necessidades diferentes. Os modelos proprietários nos permitem personalizar melhor a experiência para nossos clientes e seus casos de uso - automação de vendas, agentes de atendimento ao cliente e ferramentas internas. Além disso, podemos oferecer aos nossos clientes preços e opções mais flexíveis, e podemos experimentar constantemente novos modelos e oportunidades de negócios.
-Vice-presidente de produto em uma empresa de IA de pilha completa com mais de US$ 1 bilhão em receita anual
3. estratégias de entrada no mercado e conformidade
3.1 Roteiro de produtos de IA
- Para as empresas habilitadas para IA, cerca de 20-35% do roteiro do produto está concentrado em recursos orientados por IA, enquanto as empresas de alto crescimento dedicam 30-45% de seu roteiro a recursos orientados por IA.
3.2 Principais modelos de precificação
- Muitas empresas usam modelos de preços híbridos, incluindo preços baseados em assinatura/plano e preços baseados em uso ou em resultados.
3.3 Modelo de preços de recursos de IA
- Atualmente, a maioria das empresas habilitadas para IA oferece recursos de IA como parte de um produto premium ou oferece recursos de IA gratuitamente.
Insights multifuncionais da ICONIQEm nosso relatório State of GTM 2025, fizemos a mesma pergunta aos líderes de GTM, e suas respostas estavam altamente alinhadas com as dos líderes de P&D, reforçando ainda mais a consistência contínua dessa tendência no mercado.
3.4 Alterações de preços
- 401 empresas do TTP3T não planejam alterar os preços, mas 371 entrevistados do TTP3T estão explorando novos modelos de preços com base no consumo, ROI e níveis de uso.
Considere o retorno sobre o investimento::
"Queríamos integrar a disposição de pagar e um vínculo claro com os resultados de ROI em nosso modelo de preços."
--VP de Produto em uma empresa de IA full-stack com receita anual de US$ 100 milhões a US$ 150 milhões
"Estamos observando para ver se os recursos de IA agregam valor aos nossos clientes. Quando tivermos as principais taxas de adoção e a prova de valor agregado, poderemos segmentar os níveis atuais de nossa plataforma (ou seja, criar um nível avançado com IA/agentes completos, limitar o nível básico e criar um nível empresarial)."
--VP de Produto em uma empresa de IA full-stack com receita anual de US$ 100 milhões a US$ 150 milhões
Preços baseados no consumo e nos resultados::
"Vamos complementar os preços do modelo de camada avançada com um modelo de preços baseado no consumo. Espero que também façamos experiências com preços baseados em resultados, mas ainda não está claro como estruturaremos os preços para que os clientes possam orçar com precisão esses custos."
--VP de Produto em uma empresa de IA full-stack com receita anual de US$ 100 milhões a US$ 150 milhões
"O modelo de assinatura não funciona para nós. Os usuários pesados tendem a usar muito, o que leva a margens negativas, dados os custos da API do LLM, e aqueles que não usam correm o risco de perder a assinatura. Devido aos altos custos variáveis, planejamos mudar para um modelo baseado no uso, mas agrupando o uso em uma assinatura, por exemplo, um pacote de 100 milhões de tokens por ano."
--VP de Produto em uma empresa de IA full-stack com receita anual de US$ 100 milhões a US$ 150 milhões
3.5 Interpretabilidade e transparência da IA
- À medida que as ofertas de IA se expandem, torna-se ainda mais essencial fornecer relatórios detalhados de transparência de modelos ou insights básicos sobre como a IA afeta os resultados.
3.6 Conformidade e governança de IA
- A maioria das empresas tem barreiras em torno das políticas de ética e governança de IA, e a maioria dos entrevistados usa supervisão humana para garantir que a IA seja justa e segura.
4. estrutura organizacional
4.1 Líder dedicado de IA/ML
- Muitas empresas têm líderes de IA dedicados quando atingem US$ 100 milhões em receita, provavelmente devido ao aumento da complexidade operacional e à necessidade de ter um proprietário centralizado responsável pela estratégia de IA.
4.2 Funções específicas de IA
- A maioria das empresas agora tem engenheiros de IA/ML, cientistas de dados e gerentes de produtos de IA dedicados, sendo que os engenheiros de IA/ML são os que demoram mais para serem contratados, em média.
4.3 Velocidade de recrutamento
- As atitudes em relação à velocidade de contratação foram relativamente equilibradas entre os entrevistados, com aqueles que achavam que a contratação não era rápida o suficiente citando principalmente a falta de candidatos qualificados como um dos principais fatores limitantes.
4.4 Proporção da equipe de engenharia de IA
- Em média, as empresas planejam focar 20-30% de suas equipes de engenharia em IA, sendo que as empresas de alto crescimento têm uma porcentagem maior de suas equipes de engenharia focadas em IA.
5. custos de IA
5.1 Gastos com desenvolvimento de IA
- Em média, as empresas alocam 10-20% de seus orçamentos de P&D para o desenvolvimento de IA, sendo que a maioria planeja aumentar os gastos com IA em 2025.
5.2 Alocação orçamentária
- Os custos de talentos como porcentagem do gasto total tendem a diminuir à medida que os produtos de IA se expandem; por outro lado, os custos de infraestrutura e computação tendem a aumentar à medida que os produtos começam a ganhar força no mercado.
5.3 Custos de infraestrutura
- Dos vários custos de infraestrutura, os entrevistados apontaram as taxas de uso de API como as mais difíceis de controlar, sugerindo que as empresas enfrentam a maior imprevisibilidade em termos de custos variáveis associados ao consumo externo de API.
5.4 Otimização de custos
- Para reduzir os custos da infraestrutura de IA, as organizações estão explorando modelos de código aberto e formas de otimizar a eficiência da inferência.
5.5 Treinamento do modelo
- A maioria dos entrevistados treinou ou ajustou seus modelos pelo menos uma vez por mês, com custos mensais estimados de treinamento de modelos variando de US$ 160.000 a US$ 1,5 milhão, dependendo da maturidade do produto.
5.6 Custos de implantação: raciocínio
- Os custos de raciocínio aumentaram após o lançamento, sendo que as empresas de IA de alto crescimento gastaram duas vezes mais do que seus pares nas fases de GA e de expansão.
5.7 Custos de implantação: armazenamento e processamento de dados
- Os custos de armazenamento e processamento de dados também aumentam drasticamente a partir do estágio GA, com os criadores de IA de alto crescimento gastando mais em armazenamento e processamento de dados do que seus pares.
6. produtividade interna
6.1 Orçamento anual de produtividade interna
- Em 2025, os orçamentos internos de produtividade de IA quase dobrarão em todos os níveis de receita, com as empresas gastando entre 1-81 TP3T da receita total.
6.2 Fontes de orçamento de produtividade interna
- Os orçamentos de P&D continuam a ser a fonte mais comum de orçamentos de produtividade interna para IA em empresas; no entanto, também estamos começando a ver orçamentos de pessoal sendo usados para gastos com produtividade interna.
6.3 Acesso e uso da IA
- Embora cerca de 70% dos funcionários tenham acesso a uma variedade de ferramentas de IA para produtividade interna, apenas cerca de 50% usam ferramentas de IA de forma consistente, e a adoção é muito mais difícil em empresas maiores (mais de US$ 1 bilhão em receita anual).
Don Vu (diretor de dados e análise, New York Life)O que é: A simples implementação de ferramentas é uma receita para a decepção, especialmente para grandes organizações. Para realmente capacitar os funcionários, é preciso combinar a usabilidade com uma estrutura de suporte que inclua treinamento, destaque para os campeões e, o mais importante, suporte implacável do nível sênior.
6.4 Principais considerações para a adoção de ferramentas de IA
- O custo é a consideração mais importante na escolha de um modelo básico a ser usado para casos de uso interno, seguido pela precisão e privacidade.
Enquanto a precisão foi classificada como o fator mais importante na implantação de produtos externos de IA, o custo foi a consideração mais importante na seleção de um modelo para casos de uso interno de IA. A privacidade também se torna uma consideração mais importante nos casos de uso interno em comparação com os externos.
6.5 Desafios da implantação do modelo: casos de uso interno
- Os maiores desafios que as organizações enfrentam ao implantar a IA para casos de uso interno tendem a ser mais estratégicos (ou seja, encontrar os casos de uso certos e comprovar o ROI) do que técnicos.
6.6 Número de casos de uso
- As empresas normalmente exploram vários casos de uso da GenAI em todas as funções, sendo que as empresas com altas taxas de adoção usam a GenAI em sete ou mais casos de uso.
6.7 Adoção de IA
- Funcionários com menos uso ativo de ferramentas de IA do que em 20%Número médio de casos de uso = 3,1
- Funcionários com uma taxa de uso ativo de ferramentas de IA de 20-50%Número médio de casos de uso = 4,9
- Funcionários com uso ativo de ferramentas de IA acima de 50%Número médio de casos de uso = 7,1
6.8 Principais casos de uso: por popularidade
- P&D e Vendas e MarketingOs casos de uso lideram em popularidade, enquanto os casos de uso gerais e administrativos ainda ficam para trás.
6.9 Principais casos de uso: por impacto
- Em termos de impacto real na produtividade, os principais casos de uso refletiram as tendências de uso, com a assistência à codificação superando em muito os outros casos de uso e tendo o impacto mais significativo em termos de produtividade.
6.10 Atitudes em relação à adoção interna de IA
- As empresas de alto crescimento tendem a experimentar e adotar novas ferramentas de IA de forma mais agressiva, sugerindo que as empresas líderes veem a IA como uma alavanca estratégica e estão integrando-a aos fluxos de trabalho internos mais rapidamente.
6.11 Acompanhamento do retorno sobre o investimento
- A maioria das empresas está medindo a produtividade e a economia de custos do uso interno da IA.
7. pilha de tecnologia do construtor de IA
7.1 Ferramentas mais comumente usadas: treinamento e ajuste fino de modelos
Pontos principais
Estrutura e plataforma de hospedagem
As principais estruturas de aprendizagem profunda continuam populares, com o PyTorch e o TensorFlow respondendo por mais da metade do uso de todos os entrevistados. Mas eles são quase igualados por ofertas totalmente hospedadas ou orientadas por API - a popularidade do AWS SageMaker e do serviço de ajuste fino da OpenAI sugere que as equipes estão divididas entre a abordagem "construa o seu próprio" e "deixe que outros o executem". Deixar que outros o executem".
Os participantes do ecossistema recebem atenção
- O ecossistema Hugging Face e o Mosaic AI Training da Databricks estão criando nichos significativos que oferecem um nível mais alto de abstração para estruturas primitivas.
- Enquanto isso, ferramentas mais especializadas ou emergentes (AnyScale, Fast.ai, Modal, JAX, Lamini) aparecem em porcentagens de um dígito, sugerindo que a experimentação está em andamento, mas a adoção generalizada ainda está em sua infância.
Requisitos da empresa
- As empresas em estágio posterior geralmente têm equipes de dados maiores, pipelines mais complexos e requisitos mais rigorosos de segurança, governança e conformidade.
- A arquitetura "Lakehouse" da Databricks (que combina engenharia de dados, análise e ML) e os clusters Ray hospedados da AnyScale (que simplificam o treinamento distribuído e o ajuste de hiperparâmetros) atendem diretamente a essas necessidades empresariais, com mais entrevistados na faixa de receita anual de mais de US$ 500 milhões usando essas Soluções.
Ferramentas mais usadas
7.2 Ferramentas mais usadas: LLM e desenvolvimento de aplicativos de IA
Pontos principais
As estruturas de orquestração dominam
- As principais estruturas usadas incluem o LangChain e o conjunto de ferramentas do Hugging Face, mostrando a ênfase clara da equipe na simplificação de cadeias de dicas, processamento em lote e bibliotecas de alto nível que fazem interface com modelos públicos ou auto-hospedados.
- Aproximadamente 701 TP3T dos entrevistados também observaram que usam APIs de LLM privadas ou personalizadas.
Segurança e SDKs de nível superior ganham atenção
- Cerca de 3/10 dos entrevistados usam Guardrails para realizar verificações de segurança e quase 1/4 utiliza o AI SDK da Vercel (23%) para implantação rápida, indicando uma conscientização crescente da necessidade de guardrails e camadas de integração simplificadas para aplicativos LLM de produção.
o experimento da cauda longa
- O fraco uso de participantes emergentes, como CrewAI, Modal Labs, Instructor, DSPy e DotTXT, sugere que, embora os experimentos sejam generalizados, ainda não foi estabelecida uma padronização abrangente além dos principais participantes.
Ferramentas mais usadas
7.3 Ferramentas mais comumente usadas: monitoramento e observabilidade
Pontos principais
A infraestrutura existente continua dominante
- Quase metade das equipes confia em sua pilha de APM/logging existente (Datadog, Honeycomb, New Relic, etc.) em vez de adotar ferramentas específicas de ML - destacando o fato de que a facilidade de integração e a padronização organizacional geralmente superam os benefícios do monitoramento de IA sob medida.
Plataforma nativa de ML ganha atenção inicial
- Tanto a LangSmith quanto a Weights & Biases fizeram avanços, atingindo uma taxa de adoção de ~17%, demonstrando que há uma demanda real por soluções prontas para uso que possam detectar cadeias de dicas, rastrear embeddings e encontrar desvios sem a necessidade de complementos para sistemas legados.
A longa cauda da fragmentação e a lacuna de conhecimento
- Além dos dois primeiros nomes nativos de ML, o uso rapidamente se fragmentou entre participantes como Arize, Fiddler, Helicone, Arthur, etc., e 10% dos entrevistados não sabiam quais ferramentas usavam; isso sugere que o ecossistema está em sua infância e que há confusão sobre a natureza "observacional" da IA generativa "O conceito é confuso.
Ferramentas mais usadas
7.4 A ferramenta mais comumente usada: otimização de inferência
Pontos principais
Controle da NVIDIA na produção
- Juntos, o TensorRT e o Triton Inference Server foram responsáveis por mais de 60% de participação de mercado, destacando o domínio contínuo da pilha da NVIDIA na compressão da latência e da taxa de transferência em implementações de GPU.
Alternativas entre plataformas ganham participação no mercado
- O ONNX Runtime (18%) é a solução de nível superior que não é da NVIDIA, refletindo a necessidade da equipe de aceleração independente de hardware em CPUs, GPUs e aceleradores.
- O TorchServe (15%) mostra de forma semelhante que ainda há lugar para serviços PyTorch puros, especialmente para cargas de trabalho somente de CPU ou configurações em contêineres mais simples.
Lacunas de conhecimento e potencial inexplorado
- O fato de que 171 entrevistados da TP3T não sabiam quais otimizações usavam e 141 entrevistados da TP3T relataram "nenhuma" sugere que há uma confusão significativa ou inexperiência no ajuste inferencial, o que sugere que há oportunidades educacionais (e de ferramentas) para quantificação, poda e tempo de execução eficiente - especialmente para equipes operacionais de grande escala. -especialmente para equipes operacionais de grande escala.
Ferramentas mais usadas
7.5 Ferramenta mais comumente usada: hospedagem de modelos
Pontos principais
O acesso direto do provedor é fundamental
- A maioria das equipes tem acesso direto a hosts de modelos por meio do OpenAI, Anthropic etc., o que destaca o fato de que a resistência continua sendo por meio de chamadas para as APIs de inferência do próprio fornecedor, em vez de criar ou integrar por meio de uma camada intermediária.
Os superescaladores estão logo atrás
- O AWS Bedrock e o Google Vertex AI conquistaram uma fatia significativa, refletindo a necessidade do mercado de plataformas de ML unificadas e de nível corporativo que reúnam hospedagem com governança, segurança e faturamento em um único painel.
- Em particular, mais empresas em estágio avançado (mais de US$ 500 milhões em receita anual) relatam o uso de soluções hyperscaler.
Alternativas de fragmentação e novos participantes
- Além dos três grandes, o uso se fragmentou rapidamente entre participantes como Fireworks, Modal, Together.ai, AnyScale, Baseten, Replicate, Deep Infra e outros. Essa longa cauda indica que as equipes ainda estão explorando hosts profissionais, muitas vezes motivadas por preços exclusivos, SLAs de desempenho ou conjuntos de recursos (por exemplo, tempos de execução personalizados, opções em campo).
Ferramentas mais usadas
7.6 A ferramenta mais comumente usada: avaliação de modelos
Pontos principais
Nenhum líder independente claro
- Quase um quarto das equipes usa principalmente a funcionalidade de avaliação integrada de plataformas como Vertex, Weights & Biases ou Galileo, enquanto 20% dos entrevistados simplesmente "não sabem" quais ferramentas usam, indicando que muitas organizações ainda dependem da funcionalidade de avaliação integrada nas pilhas de ML existentes em vez de adotar estruturas dedicadas. A maioria das organizações ainda confia na funcionalidade de avaliação incorporada às pilhas de ML existentes, em vez de adotar estruturas especializadas.
Estruturas profissionais emergentes
- A LangSmith e a Langfuse lideram o ranking de ferramentas de avaliação criadas para fins específicos, com a HumanLoop e a Braintrust também mostrando força; essas plataformas ganharam participação no mercado oferecendo métricas mais ricas em nível de dicas, conjuntos de testes personalizáveis e detecção de desvios pronta para uso.
Lacunas de conhecimento e DIY
- Quase um quarto dos entrevistados não sabia qual ferramenta de avaliação usava, ou não tinha nenhuma, o que indica confusão sobre o conceito de "avaliação" na IA generativa e o risco de regressão não monitorada do modelo.
- Ao mesmo tempo, alguns entrevistados estão criando seus próprios pipelines de avaliação, o que sugere que as ferramentas prontas para uso ainda não abrangem todos os casos de uso.
Ferramentas mais usadas
7.7 Ferramentas mais comumente usadas: processamento de dados e engenharia de recursos
Pontos principais
As ferramentas clássicas de Big Data ainda dominam
- O Apache Spark (441 TP3T dos entrevistados) e o Kafka (421 TP3T dos entrevistados) lideram o caminho, destacando que, em escala, as equipes usam estruturas de streaming e processamento em lote distribuído testadas em batalha para ETL e ingestão de dados em tempo real.
Uma base sólida para Python
- Apesar do grande volume de big data, 41% dos entrevistados ainda confiam no Pandas, o que sugere que, para conjuntos de dados menores, prototipagem ou casos extremos, a simplicidade e a flexibilidade das ferramentas Python na memória ainda são indispensáveis.
Recursos armazenados no horizonte
- Apenas 171 pessoas da TP3T estão usando um armazenamento de recursos dedicado, o que indica que, embora o conceito de recurso "criar uma vez, usar em qualquer lugar" esteja ganhando popularidade, a maioria das organizações ainda não o implementou em escala.
- À medida que a maturidade aumenta, podemos ver lojas de recursos e coordenadores leves (Dask, Airflow etc.) subirem na classificação, mas, por enquanto, o ecossistema Apache domina.
Ferramentas mais usadas
7.8 Ferramentas mais comumente usadas: bancos de dados vetoriais
Pontos principais
Os mecanismos de pesquisa evoluem para o armazenamento vetorial
- A Elastic e a Pinecone lideraram a adoção, refletindo equipes que adaptaram plataformas de busca de texto completo existentes para incorporação ou adotaram mecanismos de vetores hospedados especializados.
Redis e a cauda longa
- O Redis mostra a atração de aproveitar o armazenamento de dados na memória que você já está executando, enquanto outras soluções, como Clickhouse, AlloyDB, Milvus, PGVector e outras, mostram que muitas organizações estão experimentando diferentes back-ends para equilibrar os requisitos de custo, latência e funcionalidade.
O aumento das soluções de código aberto
- Ferramentas especializadas de código aberto, como os plug-ins de vetor do Chroma, Weaviate, Faiss, Qdrant e Supabase, estão canibalizando os primeiros líderes, o que sugere um campo de batalha competitivo em termos de facilidade de uso, escalabilidade e integração nativa da nuvem.
Ferramentas mais usadas
7.9 Ferramentas mais comumente usadas: dados sintéticos e aprimoramento de dados
Pontos principais
Predomina a produção interna
- Mais da metade das equipes (52%) constrói suas próprias ferramentas, o que sugere que os fornecedores prontos para uso ainda têm dificuldades para cobrir todos os casos de uso ou se integrar aos pipelines existentes.
O Scale AI é claramente o líder de mercado
- Com uma taxa de adoção de 21%, a Scale AI é a plataforma de dados sintéticos de terceiros preferida, mas mesmo assim ela só é adotada por 1 em cada 5 organizações.
Atração inicial da estrutura do programa
- A Snorkel AI e a Mostly AI mostram que as ferramentas de geração e rotulagem de procedimentos estão ganhando participação no mercado, mas ainda estão muito atrás das soluções personalizadas.
Ferramentas mais usadas
7.10 Ferramentas mais comumente usadas: auxílios à codificação
Pontos principais
Domínio dos pioneiros
- Copiloto do GitHub Usado por quase três quartos das equipes de desenvolvimento, graças à sua forte integração com o VS Code, ao suporte a vários idiomas e ao apoio da grande base de usuários do GitHub, o efeito de rede e a adaptabilidade do Copilot ao mercado de produtos dificultam a sua substituição, mas o forte desempenho do Cursor (usado por 501 entrevistados do TTP3T) sugere que há uma demanda por uma gama diversificada de integrações de IDE.
Produtos de cauda longa ficam para trás
- Após os dois primeiros, as taxas de adoção caíram drasticamente e as soluções de cauda longa se fragmentaram, sugerindo que, embora a maioria das equipes tenha experimentado pelo menos um auxiliar, poucas padronizaram as alternativas. Soluções de baixo código ou sem código, como Retool, Lovable, Bolt e Replit também recebeu uma menção honrosa, demonstrando o crescente interesse do mercado em soluções da ideia ao aplicativo.
Ferramentas mais usadas
7.11 Ferramentas mais usadas: DevOps e MLOps
Pontos principais
A MLflow lidera, mas não tem o monopólio
- O MLflow foi usado por 36% dos entrevistados e foi claramente o líder em rastreamento de experimentos, registros de modelos e orquestração básica de pipeline - isso representa apenas um pouco mais de um terço das equipes, o que sugere que ainda há muito espaço para alternativas.
- Pesos A & Biases também tem uma forte participação de mercado, usada por 20% dos entrevistados, refletindo seu apelo como SaaS hospedado para rastreamento, visualização e colaboração.
- Além das duas principais, o uso está se fragmentando rapidamente - 16% "não sabe" quais ferramentas suportam seus MLOps e outras ferramentas mencionadas incluem Resolve.ai, Cleric, PlayerZero, Braintrust e outras. Isso demonstra confusão sobre as responsabilidades (DevOps vs. MLOps) e que o mercado ainda está se organizando.
Lacuna entre o rastreamento e as operações em grande escala
- A predominância de plataformas que priorizam o rastreamento, como MLflow e W&B, sugere que muitas equipes ainda não adotaram um conjunto completo de MLOps - Entrega Contínua, Monitoramento de Deriva ou Reversão Automatizada ainda são trabalhos em andamento para a maioria.
Ferramentas mais usadas
7.12 Ferramentas mais usadas: produto e design
Pontos principais
A influência quase universal do Figma
- Com uma taxa de adoção de 87%, a Figma se tornou, na verdade, o padrão estabelecido para UI/UX e design de produtos - as equipes estão aderindo predominantemente à colaboração em tempo real, às bibliotecas de componentes e aos ecossistemas de plug-ins, em vez de procurar ferramentas de design específicas de IA.
Miro para colaboração de nível superior
- Com uma taxa de adoção de 37%, o Miro continua sendo a primeira opção para wireframes, mapeamento da jornada do usuário e brainstorming multifuncional; sua interface em estilo de quadro branco complementa a tela em nível de pixel do Figma, especialmente na fase inicial de ideação.
O surgimento de diagramas de blocos de linhas de produtos habilitados para IA
- As equipes de design ainda não estão sentindo a necessidade urgente de plataformas de design/produto nativas de IA; no entanto, muitas estão usando soluções com pouco ou nenhum código para prototipagem rápida, como Bolt, Lovable e Vercel V0.
Ferramentas mais usadas
8. casos de uso de produtividade interna (parte I)
8.1 Casos de uso
Principais tendências
Para obter mais informações sobre ferramentas específicas em cada categoria, entre em contato com a ICONIQ Insights.
Produtividade de vendas
- Muitas equipes obtêm seus recursos de vendas orientados por IA diretamente do Salesforce - o que sugere que um caminho fácil é confiar nas recomendações, previsões e pontuação de oportunidades integradas do seu CRM existente, em vez de anexar um serviço separado.
- Outros entrevistados estão usando plataformas de engajamento de vendas, como Apollo, Salesloft e Gong, enquanto outros estão recorrendo a ferramentas de geração de leads baseadas em IA, como Clay e People.ai.
- À medida que a funcionalidade incorporada amadurece, podemos ver uma diferenciação mais clara em torno de algumas plataformas ou de soluções pontuais recém-chegadas.
Automação de marketing e geração de conteúdo
- Os profissionais de marketing recorreram quase que exclusivamente aos recursos generativos do Canva para visão de marca e rápida iteração de conteúdo, tornando-o, de longe, o ponto de contato de "IA" mais comum na pilha de marketing.
- Muitos entrevistados também estão usando soluções n8n ou internas, o que sugere que os casos de uso de marketing às vezes exigem um alto grau de personalização interna.
- Muitos entrevistados também estão usando ferramentas especializadas de escrita com IA, como Writer e Jasper, com taxas de adoção mais altas para empresas em estágio mais avançado (com receita anual de mais de US$ 1 bilhão).
Engajamento do cliente
- As equipes confiam quase exclusivamente nos recursos de IA integrados do Zendesk ou do Salesforce para interações com os clientes, demonstrando que ainda é melhor confiar nas plataformas que você já está usando em vez de adotar uma plataforma de IA conversacional independente.
- Quando precisam de uma personalização mais profunda do bot, assistentes de autoatendimento ou widgets de suporte bem integrados, uma grande minoria confia em ferramentas especializadas, como Pylon, Forethought, Grano.la ou Intercom - demonstrando que, quando a IA pronta para uso não é boa o suficiente, as ferramentas de butique ainda têm seu lugar.
Documentação e recuperação de conhecimento
- A maioria das equipes utiliza ferramentas existentes de wiki e de anotações ou padroniza o Notion; isso sugere que as organizações costumam usar ferramentas de captura de conhecimento que já existem antes de tentar sobreposições orientadas por IA.
- No entanto, uma grande parte dos entrevistados também está recorrendo a ferramentas especializadas de IA, como Colher e Writer para indexação e pesquisa semântica.
9. casos de uso de produtividade interna (parte II)
9.1 Casos de uso
Principais tendências
Para obter mais informações sobre ferramentas específicas em cada categoria, entre em contato com a ICONIQ Insights.
TI e segurança
- A ServiceNow (usada por 331 entrevistados do TTP3T) e a Snyk (usada por 301 entrevistados do TTP3T) lideram o caminho, sugerindo que as grandes organizações ainda estão adotando como padrão suas plataformas de ITSM e de varredura de segurança existentes, em vez de criar ferramentas de IA totalmente novas.
- O Zapier e o Workato também foram mencionados com frequência, destacando o forte foco da equipe na orquestração de baixo código para combinar alertas, criação de tíquetes e scripts de correção em diferentes ferramentas.
legislação
- O setor jurídico é organizado principalmente por meio de ChatGPT e scripts temporários se dedicam à IA, mas as plataformas de assistentes jurídicos dedicados estão começando a ganhar força.
- À medida que as regulamentações e as preocupações com a segurança aumentam, podemos ver uma divergência: LLM convencional para pesquisas informais e suítes centradas em conformidade para fluxos de trabalho de contratos de missão crítica.
Recursos humanos e recrutamento
- Quase metade das equipes confia nos recursos de IA incorporados do LinkedIn - sugestões de perfil, correspondência de candidatos e classificação de promoções - sugerindo que os recrutadores estão confiando em uma plataforma que já usam todos os dias, em vez de integrar soluções independentes. No entanto, plataformas de nicho como a HireVue (para entrevistas em vídeo orientadas por IA) e a Mercor (para engajamento de candidatos) também estão começando a ter uma adoção moderada.
Automação de FP&A
- Muitas equipes usam o Ramp para automação de FP&A, potencialmente aproveitando seus recursos de gerenciamento de gastos e sincronização de dados em uma plataforma completa.
- Suítes especializadas, como Pigment, Basis e Tabs, também estão começando a ganhar força, o que indica um interesse crescente em planejamento baseado em motoristas e plataformas de modelagem de vários cenários.
- Cerca de um terço dos entrevistados também está usando soluções locais, o que reflete o investimento em scripts personalizados, macros do Excel e pipelines personalizados para reunir sistemas de ERP, faturamento e BI.
10. Conclusão
A tecnologia é importante, a estratégia é importante, mas o mais importante são as pessoas.
Original: https://www.iconiqcapital.com/growth/reports/2025-state-of-ai
Report Download: https://cdn.prod.website-files.com/65d0d38fc4ec8ce8a8921654/685ac42fd2ed80e09b44e889_ICONIQAnalytics_Insights_The_AI_ Builders_Playbook_2025.pdf