Um olhar sobre dez figuras que estão moldando o futuro da inteligência artificial em 2025 — desde os laboratórios que refinam seus designs principais até os legisladores que estabelecem suas diretrizes. As suas ideias, pesquisas e liderança estão impulsionando mudanças reais em como a IA é construída, compartilhada e utilizada em todo o mundo.
Esta não é uma lista de celebridades. Cada pessoa aqui tem um impacto real, uma experiência clara e um histórico de conduzir discussões dentro da comunidade de IA. As suas opiniões são importantes porque vêm da construção, orientação e desafio dos sistemas que moldam o nosso futuro.
Yann LeCun continua a ser uma das vozes mais fortes em IA, especialmente na investigação fundamental. Os seus comentários públicos muitas vezes vão contra a corrente predominante, particularmente em debates sobre modelos de linguagem grandes. Ele defende sistemas que aprendem com muito menos dados e consomem significativamente menos energia, divergindo da mentalidade de "maior é sempre melhor".
O lugar de LeCun na história é consolidado pela invenção das redes neurais convolucionais (CNNs), agora essenciais para a visão computacional. Hoje, ele é um defensor proeminente da aprendizagem auto-supervisionada e da IA autônoma — máquinas que desenvolvem compreensão através da observação em vez de ingestão interminável de dados.
Ele raramente publica conteúdo original agora, mas frequentemente reposts ou faz links para ensaios aprofundados sobre pesquisa em IA e design de sistemas.
Temas principais: arquiteturas energeticamente eficientes, aprendizado centrado em objetos, modelos de mundo;
Alcance do público: mais de 900.000 seguidores;
Dinâmica notável: trocas técnicas frequentes com pesquisadores da OpenAI e da DeepMind;
Durante mais de trinta anos, o seu trabalho moldou a estratégia de IA da Meta, visando sistemas que observam e pensam de maneiras mais próximas do raciocínio humano, e não apenas prever a próxima palavra numa sequência.
Andrej Karpathy combina habilidades técnicas profundas com a perspectiva de alguém que trouxe grandes produtos à vida. Ele desmonta ideias complexas — desde o design de modelos até as escolhas de treinamento e os obstáculos de implementação — de maneiras que ressoam tanto com pesquisadores quanto com construtores práticos.
O seu feed funde a perspicácia técnica com a visão—por exemplo, ele propôs recentemente que os grandes modelos de linguagem estão a tornar-se os blocos de construção do software moderno.
Legado: primeiros avanços em aprendizado profundo e visão computacional, liderança em IA na Tesla;
Alcance: mais de 1 milhão de seguidores;
Envolvimento: palestras frequentes em conferências e educação comunitária;
Após retornar à OpenAI em 2024, Karpathy concentrou-se em tornar os modelos mais fáceis de gerenciar e escalá-los sem perder o controle. Ele também trabalhou na abertura de mais recursos para a comunidade de desenvolvedores. Em suas postagens, ele liga o pensamento técnico profundo ao trabalho diário de construção de software, dando aos engenheiros maneiras práticas de criar sistemas que suportem o uso no mundo real.
Fei-Fei Li construiu sua reputação alinhando a IA com as necessidades humanas. Ela defende designs que atendem à saúde, educação e interesse público tanto quanto atendem às agendas corporativas ou governamentais. Ela liderou a criação do ImageNet, um projeto que reformulou o aprendizado profundo e deixou uma das marcas mais fortes na IA de hoje.
As publicações dela focam no lado humano da IA—implicações éticas, impacto na saúde e a importância de preservar a dignidade humana.
Conhecido por: ImageNet, Instituto de IA Centrada no Humano da Stanford;
Público: mais de 500.000 seguidores, aconselhando tanto os formuladores de políticas dos EUA quanto os internacionais;
Foco atual: ética, acessibilidade e inclusão social em aplicações de IA;
Ela traz perspectivas de pessoas que muitas vezes são negligenciadas na tecnologia — como trabalhadores da saúde, educadores e aqueles que vivem com deficiências — e mantém suas preocupações em foco. Li enquadra a IA responsável como uma questão de empatia, previsão e participação de vozes muito além das salas de reuniões do Vale do Silício.
Emad Mostaque é uma figura definidora na IA generativa de código aberto. Ele defende que modelos e conjuntos de dados sejam acessíveis além do controle das grandes corporações, influenciando uma onda de startups a lançarem sistemas com pesos abertos.
No seu feed, ele partilha atualizações vívidas sobre inteligência artificial generativa de código aberto e convites para feedback público sobre o desenvolvimento.
Marco: lançamento do Stable Diffusion;
Áreas de foco: transparência de custos, abertura da infraestrutura, princípios de segurança da IA;
Audiência: mais de 250.000 seguidores;
Mostaque analisa regularmente os custos reais e as limitações de construir modelos avançados, oferecendo uma visão rara dos orçamentos e do esforço técnico que impulsionam as ferramentas generativas. Sua insistência na transparência alterou as expectativas sobre o que os desenvolvedores e pesquisadores devem ser capazes de inspecionar e controlar.
A pesquisa de Timnit Gebru sobre viés algorítmico e transparência de dados mudou a forma como a equidade da IA é discutida em escala global. Ela examina quem detém o poder no desenvolvimento da IA e como esse poder molda os resultados.
Ela usa sua presença para destacar questões de preconceito, muitas vezes referindo-se à sua pesquisa ou a desenvolvimentos importantes de políticas sobre equidade em IA.
Áreas-chave: viés sistémico em LLMs, governança liderada pela comunidade, padrões éticos de dados;
Público: mais de 160.000 seguidores; citado em estruturas de políticas em todo o mundo;
Ela fundamenta seus argumentos em evidências claras. Seus estudos revelam como falhas nos dados de treinamento podem perpetuar desigualdades do mundo real ligadas a raça, gênero e classe. Legisladores e reguladores agora fazem referência à sua pesquisa ao moldar regras, o que a tornou uma voz crítica de destaque na conversa.
Chris Olah desmistificou algumas das partes mais complexas das redes neurais. As suas explicações visuais e narrativas sobre como os modelos processam informação tornaram-se material de ensino em universidades e pontos de referência para investigadores em segurança de IA.
Ele publica frequentemente atualizações sobre interpretabilidade—trabalhos recentes sobre a análise de circuitos de modelos em código aberto chamaram a atenção em círculos de pesquisa sobre segurança.
Especialidade: ferramentas de interpretabilidade, visualização de caminhos de decisão;
Público: 150.000+ seguidores;
Trabalho recente: alinhamento de modelos, protocolos de segurança, IA Constitucional;
Ao tornar visíveis os mecanismos internos da IA, Olah moveu a interpretabilidade de uma curiosidade acadêmica para um requisito central de confiança e segurança. Sua influência molda a forma como laboratórios e formuladores de políticas pensam sobre monitorar e orientar o comportamento dos modelos.
Sara Hooker trabalha para tornar o aprendizado de máquina mais eficiente e mais acessível. Ela destaca pesquisadores em regiões com menos recursos, com o objetivo de descentralizar quem pode contribuir para o campo.
As publicações dela destacam a inclusividade na pesquisa em IA—ela chamou a atenção recentemente para os limites da regulação baseada em computação.
Foco principal: modelos esparsos, reprodutibilidade, pesquisa de IA inclusiva;
Audiência: mais de 45.000 seguidores;
O trabalho dela questiona a crença de que a pesquisa séria só pode ocorrer com uma enorme infraestrutura. Ao promover arquiteturas eficientes e colaboração global, Hooker está moldando as expectativas tanto para o desempenho quanto para a participação em IA.
Ethan Mollick demonstra como as ferramentas de IA mudam a forma como as pessoas aprendem e trabalham. Seus experimentos com grandes modelos de linguagem em salas de aula e ambientes de negócios oferecem resultados concretos e replicáveis.
O seu feed traz a IA para cenários reais de aulas e escritórios—explorando como o design de prompts e as ferramentas de trabalho evoluem e influenciam a aprendizagem.
Áreas de foco: LLMs aplicados, engenharia de prompts, fluxos de trabalho assistidos por IA;
Público: mais de 280.000 seguidores;
Mollick trabalha experimentando as ferramentas ele mesmo, observando o que acontece e ajustando sua abordagem ao longo do caminho. Esse ciclo prático está fornecendo a educadores e profissionais um modelo para integrar a IA com o mínimo de suposições.
Dario Amodei lidera um dos esforços de segurança em IA mais observados. O desenvolvimento do Claude pela Anthropic é parte de uma estratégia maior para tornar a escalabilidade mais segura sem travar a inovação.
Ele posta raramente, mas quando o faz, as suas visualizações geram debate—recentemente criticou uma narrativa que descreveu como distorcendo a missão de segurança em primeiro lugar da Anthropic.
Foco: IA constitucional, fiabilidade do sistema, alinhamento em escala;
Público: mais de 70.000 seguidores; reconhecido em audiências legislativas e cimeiras globais;
O estilo ponderado de Amodei e a ênfase nos mecanismos de controle tornaram seu trabalho um ponto de referência tanto para a indústria quanto para o governo na definição de expectativas para a supervisão de modelos.
A carreira de Grady Booch tem sido construída em torno do design e gestão de sistemas de software complexos, o que torna suas opiniões sobre como a IA moderna é construída e mantida especialmente valiosas. Décadas dedicadas ao design de sistemas projetados para suportar permitem-lhe destacar o que a engenharia de IA duradoura exigirá.
A sua voz combina uma profunda perspectiva de design de sistemas com o contexto da IA—embora as atualizações sejam menos frequentes, ele traz clareza arquitetónica ao debate sobre a IA.
Mais conhecido por criar UML (Linguagem de Modelagem Unificada), Booch aplica um rigoroso pensamento arquitetônico às questões de implantação e confiabilidade da IA.
Temas centrais: design de sistemas, durabilidade, ética na engenharia;
Audiência: mais de 160.000 seguidores que abrangem comunidades de IA e engenharia tradicional;
Ele alerta que mover-se muito rápido arrisca minar a base já estabelecida. Para ele, os avanços duradouros vêm de um design paciente, testes rigorosos e um compromisso com práticas de engenharia robustas.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Principais Influenciadores de IA 2025: Verificados, Respeitados, Seguidos
Em Resumo
Um olhar sobre dez figuras que estão moldando o futuro da inteligência artificial em 2025 — desde os laboratórios que refinam seus designs principais até os legisladores que estabelecem suas diretrizes. As suas ideias, pesquisas e liderança estão impulsionando mudanças reais em como a IA é construída, compartilhada e utilizada em todo o mundo.
Esta não é uma lista de celebridades. Cada pessoa aqui tem um impacto real, uma experiência clara e um histórico de conduzir discussões dentro da comunidade de IA. As suas opiniões são importantes porque vêm da construção, orientação e desafio dos sistemas que moldam o nosso futuro.
Yann LeCun continua a ser uma das vozes mais fortes em IA, especialmente na investigação fundamental. Os seus comentários públicos muitas vezes vão contra a corrente predominante, particularmente em debates sobre modelos de linguagem grandes. Ele defende sistemas que aprendem com muito menos dados e consomem significativamente menos energia, divergindo da mentalidade de "maior é sempre melhor".
O lugar de LeCun na história é consolidado pela invenção das redes neurais convolucionais (CNNs), agora essenciais para a visão computacional. Hoje, ele é um defensor proeminente da aprendizagem auto-supervisionada e da IA autônoma — máquinas que desenvolvem compreensão através da observação em vez de ingestão interminável de dados.
Ele raramente publica conteúdo original agora, mas frequentemente reposts ou faz links para ensaios aprofundados sobre pesquisa em IA e design de sistemas.
Durante mais de trinta anos, o seu trabalho moldou a estratégia de IA da Meta, visando sistemas que observam e pensam de maneiras mais próximas do raciocínio humano, e não apenas prever a próxima palavra numa sequência.
Andrej Karpathy combina habilidades técnicas profundas com a perspectiva de alguém que trouxe grandes produtos à vida. Ele desmonta ideias complexas — desde o design de modelos até as escolhas de treinamento e os obstáculos de implementação — de maneiras que ressoam tanto com pesquisadores quanto com construtores práticos.
O seu feed funde a perspicácia técnica com a visão—por exemplo, ele propôs recentemente que os grandes modelos de linguagem estão a tornar-se os blocos de construção do software moderno.
Após retornar à OpenAI em 2024, Karpathy concentrou-se em tornar os modelos mais fáceis de gerenciar e escalá-los sem perder o controle. Ele também trabalhou na abertura de mais recursos para a comunidade de desenvolvedores. Em suas postagens, ele liga o pensamento técnico profundo ao trabalho diário de construção de software, dando aos engenheiros maneiras práticas de criar sistemas que suportem o uso no mundo real.
Fei-Fei Li construiu sua reputação alinhando a IA com as necessidades humanas. Ela defende designs que atendem à saúde, educação e interesse público tanto quanto atendem às agendas corporativas ou governamentais. Ela liderou a criação do ImageNet, um projeto que reformulou o aprendizado profundo e deixou uma das marcas mais fortes na IA de hoje.
As publicações dela focam no lado humano da IA—implicações éticas, impacto na saúde e a importância de preservar a dignidade humana.
Ela traz perspectivas de pessoas que muitas vezes são negligenciadas na tecnologia — como trabalhadores da saúde, educadores e aqueles que vivem com deficiências — e mantém suas preocupações em foco. Li enquadra a IA responsável como uma questão de empatia, previsão e participação de vozes muito além das salas de reuniões do Vale do Silício.
Emad Mostaque é uma figura definidora na IA generativa de código aberto. Ele defende que modelos e conjuntos de dados sejam acessíveis além do controle das grandes corporações, influenciando uma onda de startups a lançarem sistemas com pesos abertos.
No seu feed, ele partilha atualizações vívidas sobre inteligência artificial generativa de código aberto e convites para feedback público sobre o desenvolvimento.
Mostaque analisa regularmente os custos reais e as limitações de construir modelos avançados, oferecendo uma visão rara dos orçamentos e do esforço técnico que impulsionam as ferramentas generativas. Sua insistência na transparência alterou as expectativas sobre o que os desenvolvedores e pesquisadores devem ser capazes de inspecionar e controlar.
A pesquisa de Timnit Gebru sobre viés algorítmico e transparência de dados mudou a forma como a equidade da IA é discutida em escala global. Ela examina quem detém o poder no desenvolvimento da IA e como esse poder molda os resultados.
Ela usa sua presença para destacar questões de preconceito, muitas vezes referindo-se à sua pesquisa ou a desenvolvimentos importantes de políticas sobre equidade em IA.
Ela fundamenta seus argumentos em evidências claras. Seus estudos revelam como falhas nos dados de treinamento podem perpetuar desigualdades do mundo real ligadas a raça, gênero e classe. Legisladores e reguladores agora fazem referência à sua pesquisa ao moldar regras, o que a tornou uma voz crítica de destaque na conversa.
Chris Olah desmistificou algumas das partes mais complexas das redes neurais. As suas explicações visuais e narrativas sobre como os modelos processam informação tornaram-se material de ensino em universidades e pontos de referência para investigadores em segurança de IA.
Ele publica frequentemente atualizações sobre interpretabilidade—trabalhos recentes sobre a análise de circuitos de modelos em código aberto chamaram a atenção em círculos de pesquisa sobre segurança.
Ao tornar visíveis os mecanismos internos da IA, Olah moveu a interpretabilidade de uma curiosidade acadêmica para um requisito central de confiança e segurança. Sua influência molda a forma como laboratórios e formuladores de políticas pensam sobre monitorar e orientar o comportamento dos modelos.
Sara Hooker trabalha para tornar o aprendizado de máquina mais eficiente e mais acessível. Ela destaca pesquisadores em regiões com menos recursos, com o objetivo de descentralizar quem pode contribuir para o campo.
As publicações dela destacam a inclusividade na pesquisa em IA—ela chamou a atenção recentemente para os limites da regulação baseada em computação.
O trabalho dela questiona a crença de que a pesquisa séria só pode ocorrer com uma enorme infraestrutura. Ao promover arquiteturas eficientes e colaboração global, Hooker está moldando as expectativas tanto para o desempenho quanto para a participação em IA.
Ethan Mollick demonstra como as ferramentas de IA mudam a forma como as pessoas aprendem e trabalham. Seus experimentos com grandes modelos de linguagem em salas de aula e ambientes de negócios oferecem resultados concretos e replicáveis.
O seu feed traz a IA para cenários reais de aulas e escritórios—explorando como o design de prompts e as ferramentas de trabalho evoluem e influenciam a aprendizagem.
Mollick trabalha experimentando as ferramentas ele mesmo, observando o que acontece e ajustando sua abordagem ao longo do caminho. Esse ciclo prático está fornecendo a educadores e profissionais um modelo para integrar a IA com o mínimo de suposições.
Dario Amodei lidera um dos esforços de segurança em IA mais observados. O desenvolvimento do Claude pela Anthropic é parte de uma estratégia maior para tornar a escalabilidade mais segura sem travar a inovação.
Ele posta raramente, mas quando o faz, as suas visualizações geram debate—recentemente criticou uma narrativa que descreveu como distorcendo a missão de segurança em primeiro lugar da Anthropic.
O estilo ponderado de Amodei e a ênfase nos mecanismos de controle tornaram seu trabalho um ponto de referência tanto para a indústria quanto para o governo na definição de expectativas para a supervisão de modelos.
A carreira de Grady Booch tem sido construída em torno do design e gestão de sistemas de software complexos, o que torna suas opiniões sobre como a IA moderna é construída e mantida especialmente valiosas. Décadas dedicadas ao design de sistemas projetados para suportar permitem-lhe destacar o que a engenharia de IA duradoura exigirá.
A sua voz combina uma profunda perspectiva de design de sistemas com o contexto da IA—embora as atualizações sejam menos frequentes, ele traz clareza arquitetónica ao debate sobre a IA.
Mais conhecido por criar UML (Linguagem de Modelagem Unificada), Booch aplica um rigoroso pensamento arquitetônico às questões de implantação e confiabilidade da IA.
Ele alerta que mover-se muito rápido arrisca minar a base já estabelecida. Para ele, os avanços duradouros vêm de um design paciente, testes rigorosos e um compromisso com práticas de engenharia robustas.