Duplo Clique

#4 DeepSeek e o Estado da AI no Mundo

Andrea Janer e Fernanda Belfort

Send us a text

A revolução da inteligência artificial está em pleno andamento com a chegada da Deep Seek, que desafia as percepções tradicionais do que é possível com a IA. Essa discussão abrange o impacto da Deep Seek no mercado, a diferença entre open source e open weights, e as dinâmicas geopolíticas que moldam essa transformação.

"As opiniões expressas aqui são estritamente pessoais e não devem ser interpretadas como representativas ou endossadas pela Salesforce, empresa onde a Fernanda Belfort trabalha."

Speaker 1:

E aí Déa, você já voltou né.

Speaker 2:

Eu já né Alguém tem que trabalhar pra pagar as contas desse podcast, né, fernanda.

Speaker 1:

Nem fala enquanto eu tô de férias aqui, né Só tô aqui entra a família lê as notícias. É bom que a semana tá cheia de coisa. Eu tive tempo pra ficar lendo tudo que tava acontecendo.

Speaker 2:

É, tá difícil acompanhar o ritmo das coisas. Né A gente tá assim, cada dia acorda, com milhões de coisas acontecendo, novos fatos, até a gente digerir. Quando a gente tá mal digerindo, um já vem outra notícia pra gente aprender ouvir mergulhar. Tá um mês de janeiro, um janeiro eterno.

Speaker 1:

Né Um janeiro que não acaba, não, essa semana tá insano até porque, como teve muito disso, da Deep Seek, toda essa parte de, ah nossa, o que eu fui estudar de coisa ler, um monte de gente pra entender o que que tava acontecendo, o que que era então, acho que conteúdos densos também. Né, acho que muita coisa acontecendo.

Speaker 2:

Sim, eu acho que esse é a essência do duplo clique. A gente hoje vai mergulhar nessa história do Deep Seek, vai fazer um duplo clique aqui nesse tema, porque eu também fico com a sensação de que saiu muita notícia a respeito disso, muitas coisas também bem superficiais. Apareceu um monte de especialista falando, dando opinião sobre esse assunto e eu acho que hoje a gente tem uma expert aqui no nosso podcast. A Fê domina esse assunto. Acho que ela é muito fera de IA e uma super estudiosa. Então, como ela mesma disse, mesmo nas férias ela não aguenta.

Speaker 2:

Ela vai mergulhar nesse tema. Lê um monte de referências super confiáveis pra esse assunto. Eu acho que hoje a gente vai aproveitar e pick her brain. Vamos lá ouvir um pouco do que ela aprendeu aí com a gente sobre todo esse, essa questão que pode mudar aí o rumo do desenvolvimento da IA. Então Fê conta pra gente, começa contando assim como vinha acontecendo o desenvolvimento da IA, em que ponto a gente estava. A gente sempre ouviu que 2025 ia ser o ano dos agentes, o que são agentes, o que são os sistemas de agente e o que a DeepSeek trouxe para o jogo, que mudou um pouco a história, fez com que as ações da Nvidia, da Siemens, de tantas outras empresas desse ecossistema despencassem, levou um certo pânico ao mercado.

Speaker 1:

Então conta para a gente um pouco onde estávamos e onde estamos maravilhoso eu acho que esse título pra gente um pouco onde estávamos e onde estamos, maravilhoso Téa. Eu acho que esse título de expert de AI é perigoso. Né Digamos que eu sou uma eterna aprendiz, mas eu estudo e leio bastante, né.

Speaker 2:

Modesta, modesta.

Speaker 1:

Eu trabalho com tecnologia, então tô sempre estudando e lendo, mas e eu até queria primeiro convidar todo mundo pra dar um passo pra trás. Pra algumas pessoas talvez vocês falem ah, fernanda, essa parte eu já sei, mas vai ser super rapidinho. Mas pra dar uma nivelada, porque eu acho que essa parte de ah, pouca gente para e volta duas, três casinhas pra gente conseguir todo mundo entender. Mas e a não é uma coisa nova no mundo, inteligência artificial é uma coisa que eu já tenho há muito tempo. Mas a inteligência artificial que a gente estava muito acostumado era a que a gente chama de preditiva, que falava assim qual que é o próximo produto da Amazon que você pode se interessar? Qual que é a chance de você de repente cancelar um serviço, de você se interessar por esse próximo produto? Qual que será que é o próximo vídeo no YouTube que pode ser legal pra você, a palavra que você talvez vá buscar no Google que tem a maior probabilidade de ser relevante pra você naquele momento?

Speaker 1:

então essa tecnologia de inteligência artificial não gerava conteúdos novos. Ela simplesmente dava ali uma estatística de qual que era a próxima coisa que iria fazer sentido em alguns momentos. E aí veio com, na verdade com o lançamento do chat GPT que o mundo todo viu essa nova tecnologia isso há um pouco mais de dois anos atrás que é essa tecnologia generativa que efetivamente gera um novo conteúdo. Apesar da gente falar que ele está gerando um novo conteúdo, a forma que ele gera esse conteúdo também é em cima de uma estatística. Então é assim puxa o que são as próximas palavras que vão formar uma frase que o usuário vai considerar que foi uma resposta adequada. Esses modelos já existiam no passado, mas eles eram ruins, eles davam respostas ruins Até que de repente e acho que isso é uma coisa interessante a tecnologia, a gente, como ser humano, sempre espera uma evolução linear E a tecnologia muitas vezes tem uma evolução que é exponencial.

Speaker 1:

Então até brinco, cara. Tudo bem a Fernanda ter se surpreendido, mas é sério, o Bill Gates se surpreendeu Né, ou sei lá, né Todos esses caras de tecnologia se surpreenderam, mas a surpresa foi que modelos que antes eram ruins de repente ficaram muito bons. Né Dé, acho que o lançamento do chat de ETT foi uma grande sacudida no mundo, né?

Speaker 2:

Total e acho que colocou uma tecnologia que até então era usada de uma certa forma B2B na mão do consumidor. Então as pessoas passaram a ter contato com uma tecnologia que foi considerada milagrosa naquele momento. Eu lembro que foi um hype todo mundo descobrindo, usando, experimentando, e o PAI virou top of mind, né virou quase sinônimo de categoria até surgirem as outras que foram entrando depois. Eu acho que isso também é uma questão. Né eu acho que o Sam Altman e a OpenAI tentaram realmente chegar nesse lugar em que quando a gente falava de inteligência artificial generativa, a gente lembrava de chat GPT. Né Todo mundo meio que confundia até o nome da coisa, né A gente usava. Usar inteligência artificial generativa equivalia a usar chat GPT E são várias ferramentas que você pode usar, não apenas essa. Mas eles conseguiram ali como eles foram os primeiros, né Eles acabaram ganhando aí uma série de benefícios de terem sido talvez os pioneiros viraram sinônimos de categoria.

Speaker 1:

A mesma coisa de você falar pegam Kleenex, pegam alguma coisa.

Speaker 2:

Assim virar um sinônimo de categoria seu colega de trabalho é o chat GPT. Poucas pessoas ainda usam a penetração de um chat GPT hoje versus a de um Claude, por exemplo da Antropic, é muito diferente, então as pessoas ainda usam ele como sendo realmente o primeiro.

Speaker 1:

Acabou sendo o sinônimo E eu acho que uma coisa também que foi uma surpresa pra todo mundo é que a gente acreditava que o primeiro tipo de função e a tecnologia ia dominar e bem ou mal ia acabar com os empregos, e tudo não eram os colarinhos brancos, eram os colarinhos azuis. A gente achava que era automação na linha de fábrica, a gente achava que era tudo isso e de repente a gente ainda tem um desafio que ninguém conseguiu fazer um robô andar igual um ser humano. Mas de repente a gente viu um computador passando numa prova do que equivaleria no Brasil a uma OAB, ou respondendo coisas que a gente nunca imaginou e inclusive sendo criativo. A gente entendia que era uma característica do ser humano, a empatia essa continua sendo, por enquanto espero que a gente não perca ela tão rápido e a criatividade. E de repente a criatividade, o chat GPT começou a ser criativo. Então acho que teve uma série de coisas aí E esses modelos, como o chat GPT, são modelos que chamam LLM, large Language Models, e eles eram modelos que meio que respondiam a primeira coisa que vinha na cabeça E uma das grandes coisas que essas empresas que desenvolvem esses modelos estavam tentando fazer era fazer não, se eu perguntasse dez vezes a mesma coisa, ele me daria o modelo dez respostas diferentes.

Speaker 1:

Eu falo cara, eu não quero dez respostas diferentes, eu quero dez vezes a melhor resposta. Isso que a gente fala, que é um modelo que raciocina. Se você me pergunta e eu falo, a primeira coisa que vem na minha cabeça eu estou simplesmente respondendo. Ali, no meu primeiro instinto Raciocinar é falar. Peraí, a Béa está me perguntando uma coisa. Eu vou pensar qual que é a resposta, como que é e tudo, antes de responder. E isso era não só para melhorar a qualidade dessas respostas, mas isso era também para acabar sendo modelos também mais eficientes, que não precisasse responder e passar por tudo toda vez É muito doido, mas quando a gente pensa e um dia eu vi uma apresentação do Ian Lecum, até uma entrevista, acho que no Lex Friedman, eu lembro que eu estava ouvindo isso, acho que indo para a CX ano passado e ele falando de que é fácil ter esses modelos preditivos de linguagem porque no fim do dia, você tem um universo finito de palavras, que são as palavras que estão no dicionário e você está estatisticamente entendendo qual a palavra que você vai colocar ou não.

Speaker 1:

Quando a gente pensa alguém que fala mais de um idioma, você consegue perceber que você pensa numa dimensão mais abstrata antes de colocar a palavra ali nas coisas. Então tem tudo isso que acontece E entraram os modelos em que o A1, acho que foi o primeiro modelo tinha uma pergunta, tanto que o time na OpenAI que desenvolveu o A1 chamava o projeto Strawberry Porque tinha uma pergunta que entra a galera de inteligência artificial e tudo. Era uma pergunta que era até famosa que se você perguntasse para os modelos até o GPT-4, quantas vezes a letra R aparecia na palavra Strawberry, o modelo errava porque ele pegava essa palavra, transformava em tokens, representava cada uma dessas mais ou menos sílabas e números e fazia esse modelo de prever qualquer resposta E ele corria para falar isso e ele perdia o RR ali no segundo, essa informação, e respondia que aparecia duas vezes. E isso de repente era uma coisa do tipo ó, tá vendo, ele erra porque ele não parou para raciocinar com calma.

Speaker 1:

E se você colocasse coisa simples como pense passo a passo, você estimulava o modelo a pensar em qual era o melhor raciocínio pra responder isso. Então ele falava se você colocasse pense passo a passo, ele soletrava strawberry e aí contava e aí acertava. Então o raciocínio é muito, você também pensar a melhor forma de fazer alguma coisa. E o OM foi o primeiro modelo que fez isso de conseguir raciocinar, e esses modelos até estão sendo chamados, ao invés de Large Language Models, de Large Reasoning Models, e acho que esse, que foi uma das grandes surpresas da DeepSeek, você pode começar contando também Dex, senão só eu vou falar, pelo amor de Deus, as pessoas vão falar. Aguento mais essa pergunta ainda falando, mas conta um pouco do que é a DeepSeek, o que ela veio com esse modelo, comparando com Não até pegando um gancho nisso que você falou.

Speaker 2:

Uma das coisas que o DeepSeek faz de diferente é que ele expõe essa linha de pensamento que o computador faz para responder, porque esse chain of thought, essa linha, essa cadeia de pensamento, é uma coisa que a OPRA entendeu que não era interessante mostrar. Então ele fica lá como se fosse com aquelas reticências, pensando, e aí ele te responde já tendo feito todo esse raciocínio, o DeepSeek mostra, tem a opção de mostrar isso. Né. Então é uma coisa que de repente para o usuário é interessante ver essa linha de raciocínio? né. Mas a DeepSeek é uma empresa que começou. Na verdade, ela é um spin-off de um hedge fund. Né uma empresa que nasceu em 2015, que foi na verdade começou a brincar com inteligência artificial para usar isso nos negócios deles, ou seja, foi um uso interno desse desenvolvimento de IA E lá pelas tantas o fundador entendeu que isso era que ali tinha alguma coisa diferente e resolveu fazer um spin-off, que veio a ser a DeepSeek.

Speaker 2:

Esse fundador é alguém muito discreto. Tem pouquíssima informação online sobre ele. O pouco que a gente sabe é que ele é um apaixonado por inteligência artificial e que ele enxerga o futuro da DeepSeek como uma missão que ele tem de colocar a inteligência artificial ao alcance de todos, tanto que durante todo esse processo, todo esse tempo que eles começaram a apostar e desenvolver inteligência artificial, nunca teve um fundo comercial. Eles estavam fazendo sempre tudo com os melhores cérebros, recrutaram os maiores engenheiros, os maiores cientistas para poder trabalhar nisso com salários super altos, foco e sem a preocupação com o modelo de negócio. Eles não estão preocupados em como monetizar isso.

Speaker 2:

Então acho que a DeepSeek foi uma surpresa para muita gente, não para quem estava acompanhando a inteligência artificial que é desenvolvida na China. A gente tem que só lembrar que a China, tudo que acontece lá, dificilmente vaza. A gente tem pouco acesso ao que está acontecendo lá dentro. Enfim existe uma preocupação do governo em manter muitas coisas enfim secretas, sigilosas. Então a gente ficou, navegou esses últimos anos quase numa ingenuidade não ia nem dizer numa ilusão, mas numa ingenuidade de que a China estava atrasada.

Speaker 2:

Houve toda uma jogada dos americanos para dificultar o acesso da China aos poderosos chips da Nvidia, lembrando que são os chips da Nvidia que permitiram que a inteligência artificial andasse nessa velocidade exponencial nos últimos anos nos Estados Unidos. Então essa é uma questão bem importante. Chip é uma questão geopolítica. Hoje Já tem alguns anos que quem detém os chips, quem tem essa tecnologia é quem está desenvolvendo esses modelos mais avançados de inteligência artificial. Então, uma jogada do governo americano para tentar impedir que a China ameaçasse o desenvolvimento da inteligência artificial dos Estados Unidos, ameaçasse a desenvolvimento da inteligência artificial dos Estados Unidos, ameaçasse a supremacia, uma tentativa de supremacia americana na inteligência artificial. Eles fizeram com que a China não tivesse acesso a esses chips mais sofisticados, mais top de linha da Nvidia E o mais engraçado foi que os Estados Unidos ficaram achando que isso era o suficiente.

Speaker 2:

Além disso, colocaram também alguns embargos em algumas matérias-primas, também para dificultar que a China produzisse seus próprios chips. Então foi uma jogada política ali para tentar conter a competição chinesa, porque a China tem na verdade o mais difícil, que é o talento. Ela tem uma legião de engenheiros e de cientistas de dados gigante, muito maior que os Estados Unidos. Mas eles acharam que contendo os recursos físicos, eles iam conseguir impedir que a China fosse uma concorrência à altura dos Estados Unidos. E essa foi a grande surpresa, porque o que a gente descobriu agora é que essa escassez acabou gerando uma tremenda inovação, que é como é no mundo. A gente sempre fala que tem várias explicações, que a necessidade é a mãe da criatividade.

Speaker 2:

Exato, então, assim você ter que hackear o sistema, ter que encontrar uma forma mais inteligente, mais criativa de resolver uma dor. é muitas vezes onde reside a maior inovação E acho que, resumindo, foi isso que a China fez.

Speaker 1:

Maravilhoso Daya E até dando algumas explicações. Quando a gente fala em chip, o tipo de chip que é usado pelas empresas para treinar esses modelos ou depois fazer as inferências, então treinar é fazer o modelo, a parte da inferência é quando a Fê vai lá, entra no chat e faz uma pergunta, precisa rodar esse modelo para responder E esse tipo de processamento não é o mesmo processamento que a gente usa no chip do nosso notebook. A Nvidia era uma empresa que tinha as GPUs. Ela era muito forte nesse tipo de processador que era usado para games e para algumas coisas específicas que se mostraram ser os melhores chips para esse tipo de processamento. E aí o que aconteceu é que durante esse desenvolvimento lembra que eu comentei que no começo esses modelos existiam, mas eles eram ruins O que aconteceu foi que começaram a ser uma série de papers, uma série de aprendizados que mostravam que quando você colocava um monte de capacidade de processamento, um monte de chip e isso estava muito ligado à tecnologia de redes neurais, que é o que a gente chama de deep learning Então imagina que você nunca vai conseguir um processador que vai rodar uma quantidade absurda de coisa.

Speaker 1:

E a ideia dessas redes neurais era justamente a ideia de você, assim como o cérebro tem um monte de neurônios que estão conectados. Você conseguir pegar uma série de processadores diferentes e conectar esses processadores pra eles em conjunto trabalharem em alguma coisa. E aí isso trouxe esse deep learning, que é um tipo de machine learning que usa esse tipo de tecnologia e acaba sendo algo que está sendo processado por tantas partes diferentes em camadas tão profundas que ninguém tem visibilidade do que efetivamente está acontecendo. Então uma analogia que eu gosto bastante é uma analogia que fala que é a mesma coisa de você ter um olheiro de futebol, né Sabe aquele cara que vai lá ver o jogo pra ver quem vai ser o próximo grande atleta. E se você pedir pra esse cara te explicar exatamente o que ele tá observando numa pessoa, ele não vai saber te dizer, ele não vai saber verbalizar o que acontece na cabeça dele e quão importante é a velocidade versus o equilíbrio, versus o gingado, versus cada uma dessas coisas para ele falar puxa, esse cara tem potencial ou não tem.

Speaker 1:

É isso que acontece. O que está acontecendo nesse modelo é algo que a gente não consegue olhar. E esse modelo por isso também que esse modelo alucina, porque ele não sabe o que é verdade ou não, porque tudo é o que ele acredita que vai ser a resposta que vai ser considerada certa. E tudo isso está acontecendo de uma forma que não tem uma regra clara Se for A é B, se for B vira D E assim vai.

Speaker 1:

Então é tudo super complexo E esses chips são os chips que são usados para tudo isso. Então acho que isso é uma parte super importante. E aí eu fui estudar porque eu também falei meu Deus do céu, como que os chineses conseguiram de repente fazer um modelo e pegou todo mundo de surpresa, porque está todo mundo olhando alguns players. Né então quem são os grandes players hoje nesse tipo de modelo? a openai o Google com Gemini Anthropic, com Claude, que a Delze adora, né tem a Mistral, que é uma, né empresa francesa tem alguns players aí, né a Meta, que começou a investir muito nisso com o Lhama. Então começaram até alguns players.

Speaker 1:

Ninguém nunca tinha ouvido falar em DeepSeek e aí quer dizer a galera super high-tech e tal né já tava de olho em alguns modelos perfeito e falaram até que o modelo que mais chamou a atenção deles tecnicamente não foi esse modelo que eles lançaram agora, que foi CR1, mas foi o V3, que foi o modelo que foi lançado, acho que no Natal em dezembro, isso mesmo em dezembro.

Speaker 2:

Isso mesmo é. Essa turma está no X, essas cabeças brilhantes chinesas, eles estão no X, são pesquisadores, inclusive a DeepSea, que ela publica papers. Publicou papers já com 30, 40 cientistas chineses. Todos assinam esses papers E quem segue esses caras já estava sabendo que isso ia acontecer mais cedo ou mais tarde. Era uma questão de tempo.

Speaker 1:

Exato, a galera que está meio que na parte de research mesmo, que está pesquisando os novos modelos, que está lendo os papers, mas o mercado como um todo não estava vindo isso vir. E aí Fernanda foi estudar o que estava acontecendo, porque a grande novidade é que eles conseguiram um resultado muito bom comparado com esse modelo, por exemplo, O1, da OpenAI, com uma quantidade de investimento para treinar esses modelos muito menor. E o que aconteceu nisso tudo. Então o que eu fui pesquisar é que desde esse modelo, desses modelos anteriores do V3, algumas coisas que vieram do V2 teve algumas coisas que eles conseguiram fazer e que eles desenvolveram. E tudo isso em cima desse modelo de open source barra, open weight, que daqui a pouco eu vou entrar nisso e explicar um pouco para vocês como que funciona. Mas eles começaram a desenvolver algumas coisas, uma que chama DeepSeqMoe, m-o-e, que no fim do dia isso quer dizer que é um mix of experts.

Speaker 1:

Então imagina isso assim no modelo no GPT 3.5, todo o modelo era ativado para o treinamento e para a inferência. Para a hora que você está indo lá e fazendo uma pergunta. No GPT-4, eles já fizeram o sistema de um jeito, mas o modelo do Opinion é aberto. Você não consegue saber tudo exatamente como faz, mas eles já fizeram de uma forma que é como se tivesse experts diferentes. Então eu vi um artigo falando que acham que tinha 16 experts. Então não vamos aqui no detalhe porque eu não tenho certeza exatamente como é, mas vamos no conceito que, dependendo do tipo de pergunta, dependendo do que vai acontecer, uma parte ativada, outra parte ativada, e com isso você consegue ter um nível de resposta e tudo muito melhor E eles conseguiram fazer essa tecnologia com muito mais experts.

Speaker 1:

Então conseguiram fazer um modelo muito maior e ativar os experts ou a parte do modelo que fosse necessário. Então é como se ele conseguisse, na hora que você vai fazer uma pergunta, já meio que alocar quem vai responder essa pergunta, como vai responder e tudo, E desse jeito usar muito menos processamento porque você não está ativando todo mundo toda hora. Você está conseguindo ser muito mais inteligente nessa parte. Então, por mais que o modelo que eles têm tem, acho que pelas pesquisas que eu estava fazendo, 671 bilhões de parâmetros só, sei lá, 37 bilhões de parâmetros que eram ativados ao mesmo tempo para fazer uma inferência ou responder uma parte.

Speaker 2:

Então acho que esse foi um ponto importante, fê isso tem uma implicação, por exemplo, numa questão que a gente fala pouco, quando a gente fala de inteligência artificial, que é o quanto uma query, o quanto uma pergunta, por uma inteligência artificial consome de energia, que isso é um dos pontos super delicados quando a gente fala de inteligência artificial, porque o que a gente gastava de energia para fazer uma pergunta para o Google, por exemplo, era uma coisa minúscula perto do consumo de energia gerado por todo esse poder computacional necessário para poder processar esses milhões de parâmetros. aí, na hora de fazer uma resposta, a gente pode assumir, a gente pode concluir que essa, além de gastar menos dinheiro, esse novo modelo proposto pelos chineses também gasta menos energia e, por assim dizer, vai ser mais, vai ser menos nocivo para o planeta.

Speaker 1:

Téa, não sei te responder, não li nada sobre isso, mas usando o meu bom senso, eu assumo que sim, porque eu assumo que tem menos processamento, dá menos energia, porque, pelo que eu sei, muito de energia é para refrigerar os servidores, e tudo isso em cima do processamento que está acontecendo. Então entendo que sim, mas, sendo super honesta, não li nada especificamente sobre isso, mas, no fim do dia, o que eles fizeram e eu acho que o que surpreendeu foi eles conseguirem chegar no nível do que uma OpenAI está e eles conseguirem chegar neste nível de uma forma muito mais eficiente e barata. Então eu acho que essa parte desse MOWI é uma das coisas que, pelo que eu pesquisei, realmente eles fizeram de brilhante. E tem uma outra parte, que é uma outra parte de tecnologia que eles chamam de MLA, em que eles estão falando na verdade aqui de Multi Head Latent Attention, que é justamente uma parte de que parece que uma das partes que é muito cara do ponto de vista de uso de memória é essa parte de que. Parece que uma das partes que é muito cara do ponto de vista de uso de memória é essa parte de quando você vai fazer, por exemplo, as janelas de contexto, porque você precisa acabar usando muita memória porque cada token precisa ter uma chave e um valor. Eu não sei te explicar super tecnicamente. A gente precisa chamar alguém técnico eu sou bem intencionada, mas eu não sou assim developer e tudo e super técnica nisso.

Speaker 1:

Mas quer dizer, você acaba o que é essa janela de contexto? né Assim. Toda vez que a gente vai falar alguma coisa, você acaba considerando e Chain of Thoughts tem um pouco com isso. Né, não é o Google. Cada vez que você entra e faz uma busca, você faz uma busca do zero.

Speaker 1:

Você não continua uma conversa. Quando você está no chat GPT, você continua uma conversa. Você faz uma pergunta. Ele responde uma coisa que não está certa. Você fala, não considera essa outra coisa E ele lembra do começo daquela conversa Nas versões, por exemplo, do chat GPT.

Speaker 1:

Hoje você pode ter um projeto. Então eu posso ter um projeto que é o podcast do Duplo Clique, ter lá informações, arquivos e tudo, e sempre que eu faço uma pergunta, ele considera que aquele conhecimento já faz parte, já deve ser considerado ao responder aquilo. Isso é uma janela de contexto, por exemplo, e esse é o tipo de coisa que acaba mudando muito a memória E essa tecnologia dessa arquitetura, do jeito que eles fazem, eles conseguiram comprimir o valor e a chave de um jeito que eles usam muito menos memória do que eles precisariam usar. Então a verdade é que eles foram melhorando e usando tecnologias para conseguir fazer todo esse treinamento E eles soltaram um paper desse R3,.

Speaker 1:

E usando tecnologias para conseguir fazer todo esse treinamento E eles soltaram um paper desse R3 em que eles falam que o custo para treinar o modelo foi de 5 milhões e meio de dólares. A gente falava nos outros modelos terem custado por volta de 100 milhões de dólares, então um custo muito maior do que isso. E aí entra um outro ponto que acho que é super importante, que é essa ideia de ter um modelo destilado. Então essa parte de destilar o que é é você ter um professor que está ensinando o modelo. Uma coisa é a primeira pessoa, ir lá e aprender o conteúdo inteiro sozinho, ou você treinar o modelo, que ele é pre-trained, que ele já está sendo ali treinado do zero.

Speaker 1:

A outra coisa é quando você vai do GPT-4 para o GPT-4 Turbo, em que você usou um modelo para treinar o outro. Então imagina que eu vou aqui, eu quero aprender uma coisa com a Dea, que sempre me ensina um monte de coisa. Eu vou perguntando coisa para ela e ela vai me respondendo e eu vou aprendendo com ela. Uma inteligência artificial pode fazer milhões e milhões e milhões de perguntas e desse jeito ir aprendendo com o professor e meio que absorver aquela forma de pensar. Isso pode ser feito quando a OPNI, por exemplo, põe o GPT-4 e Turbo, aprendendo com o GPT-4, tá dentro da empresa, já tá entendendo tudo.

Speaker 1:

Mas você pode, via API ou até via interações de conversa e tudo, e aprender com outro modelo que não é seu. Isso acaba violando os termos de uso, porque muitas vezes esse modelo não foi feito. Ele não tá dizendo qualquer um pode vir aqui, pode aprender o que quiser com o que eu escrevi. Então você não pode teoricamente, pelo termo de uso do modelo da OpenAI, pegar o modelo e ir lá e ficar aprendendo com ele. Mas você consegue fazer isso tecnicamente E essa é uma das grandes discussões que estão acontecendo agora, né Dea?

Speaker 2:

Super e eu acho que tem umas questões interessantíssimas que ainda vão vir à toa nessa semana, porque a gente ainda está digerindo essa história. Você mergulhou nisso a fundo, está descobrindo várias coisas a respeito e assim as pessoas estão começando a usar ele. Já foi o app mais baixado nos Estados Unidos essa semana, já ultrapassou o chat de PT e as pessoas estão baixando um novo app chinês. Né logo depois da semana do banimento do TikTok, que foi e voltou muito rápido, não durou três horas né essa notícia do TikTok banido, tá todo mundo baixando de novo um outro app chinês e agora tem milhões de alertas aí da comunidade americana também defendendo o seu. Né todo mundo ali invocando aí a soberidade americana também defendendo o seu. Né todo mundo ali invocando aí a soberania americana e tudo mais, alertando as pessoas pra uma frase, pra frases que existem.

Speaker 2:

Até tem esse disclaimer na ferramenta mesmo no DeepSeek, dizendo que os seus dados são coletados e são armazenados na China. Então, assim a gente nunca pode. Depois que a gente vê essas coisas, a gente não consegue mais desver, né A gente tem que se preocupar com essas coisas. Quando a gente coloca nossas informações em qualquer ferramenta, a gente tem que pensar que a gente está abrindo mão dos nossos dados, da nossa privacidade e tudo mais. Então com o DeepSeek não é diferente, só que dessa vez o país é um país que a gente não conhece muito bem as regras do jogo.

Speaker 2:

Não se sabe até agora não tem muita informação sobre qual é o nível de ingerência do governo chinês sobre o DeepSeek. Isso ainda não foi enfim tornado público. Tem muita especulação a esse respeito, mas não tem muita clareza. Mas é algo que a gente já começa a ver. Ontem, por exemplo, começaram a surgir vários vídeos online mostrando que perguntas delicadas não são respondidas pelo deep-seek.

Speaker 2:

Então, quando você pergunta, por exemplo, sobre não sei figuras como Ai Weiwei, por exemplo, que não é uma figura benquista, digamos assim, pelo governo chinês, ele começa a responder. Aí ele apaga a resposta e convida você a mudar de assunto. Vamos falar de outro assunto, vamos falar de outra coisa. Então isso mostra que enfim já existe ali uma censura às respostas que ele vai dar, aos dados que ele tem, e é algo que a gente precisa ficar muito atento. Por isso que eu acho que a gente está descascando ainda essa notícia, tirando ali a casca, começando a entender como é que isso funciona. Mas ainda vai rolar muita coisa.

Speaker 2:

O que eu não queria deixar de te perguntar, fê, é sobre open source, open weights, porque acho que essa é uma outra dimensão do deep seek que também despertou aí muita polêmica. Né A gente não está muito habituada a fazer essa discussão aqui no Brasil. Não sei se as pessoas são familiarizadas com o que é uma ferramenta open source, o quanto que a meta, uma que apostou nisso, a Mistral, que você comentou, francesa também é open source, mas todas as outras não são. Então o Zuckerberg fez uma carta o ano passado defendendo o modelo open source e a DeepSeq é assim E eu queria que você contasse um pouco pra gente, pra gente entender os prós e os contras desse tipo de modelo.

Speaker 1:

Então vamos lá. A gente tem quando você desenvolve um software, uma aplicação, você tem um modelo que é um modelo de licenciamento de quem desenvolveu, é o dono daquele código-fonte que gerou aquela aplicação E você tem um modelo, isso assim Meu primeiro emprego foi na Microsoft, sei lá, entrei em 99,. Né gente, eu soube há muito tempo Na Microsoft. Eu lembro que tinha a Microsoft de um lado e tinha a Linux com open source do outro lado. Né Verdade, um lado, né Verdade. Um tinha, né É tipo a fórmula da Coca-Cola, né A fórmula do Office, sei lá, do Word, do Excel, do Windows e tudo que é de propriedade da empresa. E o outro que você fala olha tudo que eu desenvolver tá aqui, tá publicado, qualquer pessoa pode pegar esse código, código, pode melhorar, pode construir em cima, e assim a gente tem uma comunidade, um ecossistema construindo tudo isso. Aí veio a OpenAI, os LLMs, e veio a meta, por exemplo, falando que tinha um modelo que era open source. Aí depois a gente aprendeu que o termo correto não era usar open source, porque, por mais que ela possa publicar ali qual que é, meio que a receita daquele modelo não faz parte disso. A pessoa que está indo lá e está acessando isso pode baixar, pode usar, pode replicar, não tem acesso aos dados que treinaram esse modelo. Então isso passou a ser chamado de Open Weight, que é quando você consegue de alguma forma ter todas as regras que fazem esse modelo, a estatística e tudo, e existem vários tipos. Então, sei lá, deepseq, acho que a licença está dentro do padrão do MIT. Tem algumas coisas que eles usam, que eu também não sou expert para explicar todos os detalhes, mas a meta, por exemplo Lhama, que é o modelo deles. Eu lembro que quando começou a sair Lhama e tudo, eu dei uma super pesquisada nisso e eles tinham um modelo de licenciamento que pode ser qualquer um pode pegar, usar esse modelo, mas se for fazer um produto para vender comercialmente, ele pode usar até um limite de tantos milhões de usuários, coisas assim. Então tinha algumas limitações, então eles acabam fazendo isso. Mas basicamente esses modelos são modelos que você deixa qualquer um baixar, colocar num outro servidor, rodar o modelo, construir em cima, e isso é uma discussão super interessante.

Speaker 1:

Né Dea, porque assim o primeiro grande player que chegou e fez um modelo, né open source, que na verdade é open weight, foi a meta com o Lhama. A gente, né eu e você que a gente acompanha isso bastante, a gente sabe que o Yann LeCun, que é um cara super importante, eu e você, que a gente acompanha isso bastante, a gente sabe que o Ian Lecun, que é um cara super importante de IA, que é o Red, é acadêmico super importante, tá nessa parte da inteligência artificial, foi trabalhar na meta e ele colocou como uma das condições pro Marcos Zuckerberg que ele só iria trabalhar lá se todo o trabalho fosse open source, pudesse ser desenvolvido. Eles entenderam que isso faria sentido porque e a gente até estava tendo uma discussão num dos grupos lá da Tribo de A essa semana de por que a Meta tem isso ou não e acho que a gente entra numa outra parte interessante da conversa, que é o que as empresas ganham ou perdem com esses modelos. E assim, no fim do dia, a Meta entrou na dança atrasada. E além disso, eu acho que depende muito de qual que é o modelo do negócio.

Speaker 1:

A gente há muito tempo, desde que veio o chat GPT, todo mundo falava eu acho que ninguém vai ganhar dinheiro com o modelo de LLM. Eu acho que as empresas vão ganhar dinheiro colocando isso dentro de aplicações. Então, por exemplo, a OpenAI tem o chat GPT, que é onde as pessoas estão usando a interface e puxando o modelo Cloud. Antropic nunca conseguiu fazer Cloud seu puxando o modelo Cloud, né Anthropic nunca conseguiu fazer Cloud seu negócio gigantesco. O Google e a Microsoft ainda tem o próprio Google e a Microsoft, que é onde eles estão acessando, e de repente DeepSea, além de ter um modelo que conseguiu entregar um nível de resposta super bacana, passou a ser o app mais acessado da Apple Store essa semana. Então isso foi uma coisa que você comentou que eu acho que não é menor, porque tem uma coisa super importante acontecendo aí.

Speaker 2:

Né É interessante porque a Apple, por exemplo, tomou um outro caminho. Né, todo mundo estava curioso para saber o que a Apple, como é que ela ia se posicionar diante de tudo isso, e ela acabou decidindo que ela não vai desenvolver inteligência artificial. Ela vai usar os parceiros e fornecedores que ela entender que estão funcionando melhor e vai embarcar essas tecnologias nos produtos dela. Então ela foi sabe aquela história do segundo rato que come o queijo. Eu acho que foi uma estratégia bem interessante da Apple de entender que ela também estava chegando atrasada e que ela não ia ser competitiva. É preciso muito dinheiro. Bom, se acreditava que ela precisa muito dinheiro, né até a revolução do Deep Seek, se acreditava que a barreira de entrada era muito grande, você ia ter que investir muito dinheiro pra contratar os maiores talentos, pra comprar os melhores chips, pra você poder entrar nessa briga. Mas eu acho que a Apple preferiu ficar ser agnóstica.

Speaker 2:

Né ela vai usar as ferramentas que estiverem disponíveis, vai fazer negociações comerciais e vai usar a que for melhor, porque no fundo, esse gente é um jogo de gente grande. Não vamos esquecer que, por trás de nomes como Antropic, por exemplo, que podem parecer um pouco desconhecidos de muita gente, está a Amazon, está o Google, todas essas grandes, as big techs, como a gente chama. Elas estão de alguma forma colocando os ovos delas em diferentes cestas. Então elas investem. A própria Microsoft foi quem investiu na OpenAI lá atrás. Hoje a Microsoft está desenvolvendo seus próprios modelos. Acho que ela levou ali um susto com aquela situação do Sam Altman que enfim foi expulso do cargo de CEO da OpenAI no final de 23.

Speaker 1:

Perdeu o emprego depois de emitir o chefe e voltou.

Speaker 2:

Exato. E aí ele voltou. Eu acho que ali foi o momento em que a Microsoft entendeu que ela não podia colocar todos os seus ovos ali na cesta da OpenAI e chamou ninguém menos que Mustafa Suleiman, co-founder da DeepMind, que hoje é do Google. Ele é co-founder junto com também ninguém menos que o Demis Hassabis, que acabou de ganhar um Nobel de Química. É Sir inclusive. Né são nomes assim que parecem. A gente tá falando aqui da realeza da inteligência artificial, né então o Mustafa Suleiman.

Speaker 1:

Eles vão continuar ouvindo a gente. Eles vão começar a aprender todos esses nomes né, Então a gente adora. Parece que a gente é BFF deles.

Speaker 2:

Exato e a gente ainda encontra eles nos festivais. A gente assiste, lê livro ouve podcast. Então são as pessoas que a gente ouve, são as fontes. Né São a gente ouve são as fontes, né são. Na sua maioria são pesquisadores, são cientistas. Eles vêm do mundo acadêmico, que, aliás, é uma outra questão que eu sempre falo muito quando eu falo de inteligência artificial a importância da gente manter alguns desses cérebros brilhantes na academia, nos centros de pesquisa, nos institutos, porque o que acontece hoje é que a iniciativa privada vai lá e seduz essas grandes mentes brilhantes com salários assim obscenos. Né então assim eles acenam com a possibilidade de pessoas deles ganharem assim um dinheiro que eles nunca nem imaginaram ganhar. Então essas pessoas acabam como o Ian Lecum que você trouxe muito bem vai pra meta, ele vai trabalhar na meta e vai lá ser o chief artificial intelligence officer da meta e deixou o centro de pesquisa onde ele trabalhava.

Speaker 1:

Então a gente eu tava agora- ainda à voz muito poder computacional pra conseguir evoluir então eles começaram a precisar estar nas empresas.

Speaker 2:

É isso que eu estou achando, que talvez mude agora com essa revelação da DeepSeek Para mim. eu acho que a grande questão que a gente vai ver daqui para frente. Talvez seja isso, talvez a gente não tenha mais aquela. O modelo de desenvolvimento de até aqui foi esse muito dinheiro, muito dinheiro. Mesmo já se fala há mais ou menos dois anos que tinha uma bolha. Possivelmente teria uma bolha na inteligência artificial, ou seja super inflacionados os valuations das empresas e de repente os chineses mostram que tipo não precisa tudo isso né.

Speaker 1:

Então talvez isso mude, mas eu acho que assim daqui a pouco a gente entra na bolsa, que a gente não pode ir embora. A gente tem alguns assuntos eu tô fazendo uma lista do que a gente ainda não falou porque a gente tem que falar do impacto na bolsa, a gente tem que falar do BED aí, dos chips, que tem umas coisas importantes. A gente tem que falar do tal do paradoxo de Jevons, que eu não sei como é que fala que foi o post do Satya falando um pouco disso. Mas pera, que a gente já entra nesse capítulo. Mas acho que tem um ponto importante aí que é existem.

Speaker 1:

Eu acho que duas coisas Poder computacional, né, e o próprio Dario Amodei né. Acho que o artigo que você que me mandou até ele fala bastante disso que geralmente o que acontece é que quando você coloca mais poder computacional você consegue fazer mais, e que essa curva não é uma curva linear. Então não quer dizer que você não consegue de repente fazer um modelo minimamente ok com menos dinheiro, mas você precisa de mais dinheiro pra fazer realmente um modelo incrível e que pra você chegar nessa AGI, nessa tecnologia, aí em que você realmente chega no nível humano isso aqui vale uma outra conversa inteira né, gente A gente vai falar muito de A ainda.

Speaker 1:

A gente vai falar muito de A ainda no futuro. A gente nem conseguiu entrar em agente, ainda que era um dos tópicos de hoje. Acho que não vai caber no de hoje, mas existe sim. Eu acho que demanda pra muita capacidade de processamento. Eu acho que uma coisa é os primeiros chegarem num nível superior, a outra é vir alguém aprendendo com esses modelos, né em cima desses destilados e de tudo isso, ganhando eficiência. Eu acho que isso é uma coisa que sempre existiu no mundo. Você tem quem é ali realmente a maior inovação, que ainda está longe de estar no mainstream do mercado e que são as coisas que já estão de alguma forma mais popularizadas. Eu acho que a gente vê os preços caindo quando a gente olha esses modelos. Todos existem os preços. Que a gente vê os preços caindo Quando a gente olha esses modelos.

Speaker 1:

Todos existem os preços que a gente como usuário final vai lá e paga para usar. Então eu pago, sei lá, 20 dólares para ter acesso ao chat de BPT lá, que é o mais premium. Agora já tem uma assinatura de 200 dólares. Essa eu não pago. Viu, gente, acho que já está muito caro, mas tem tudo isso. Mas muito do dinheiro vem do acesso corporativo de você de repente ter uma aplicação um software.

Speaker 1:

Eu trabalho na Salesforce, por exemplo. Preciso deixar isso sempre claro até a pedida da Salesforce, apesar de que tudo que eu estou falando aqui não representa a opinião da Salesforce, nem é endossada por ela. É um projeto paralelo, mas a Salesforce tem N produtos, de agentes e de coisas que usam inteligência artificial e tem essa coisa que você comentou que é agnóstica. Você consegue ir lá e consegue falar puxa, vou usar um modelo, vou usar outro modelo. De repente vem a DeepSeq. Alguém comentou hoje, acho que no grupo da Oxygen inclusive, de que a Perplexity já tá com opção de você de repente usar DeepSeek, porque para a indústria como um todo, você ter a possibilidade de entregar uma experiência muito melhor com todas as funcionalidades por um preço muito mais baixo, continua sendo algo super interessante para o mercado como um todo. Mas eu acho que não vai cair a demanda para ter chip, tanto que eu acho que o bear, esse embargo que tem de tomar esse cuidado dos chips que podem ser vendidos para um país como a China.

Speaker 1:

A Nvidia declarou que o que a China tem está dentro do Baird e isso antes não tinham tantas restrições que agora tem então o chip mais novo ali da Nvidia, que é esse H100, ele não pode, é proibido ser vendido para a China. O H800 parece que pode. Tinha coisas que antes podiam que agora não podem mais. Tem umas discussões de que talvez seja meio como contrabando, mas dizem que daqui para frente, se continuar com essa restrição, vai ser mais difícil da China conseguir chegar nos próximos níveis porque essas restrições não eram tão grandes antes. Então tem algumas discussões nesse sentido, mas esses modelos estão cada vez mais baratos.

Speaker 1:

Hoje a gente vê que os preços todos estão caindo quando a gente faz esse acesso das aplicações usando isso que são os custos por milhão de token das APIs. Mas hoje o O1 custa 60 dólares e se você for usar o R1 da DeepSeek tá custando 2 dólares e 16, então tá 30 vezes mais barato. E aí é o que o Satya Madela fala, que ele fala puxa, tudo bem, por um lado, tá muito mais barato, por outro lado, e é esse paradoxo de Jevons. Não sei como fala isso, não sei se você sabe que ele trouxe. Todo mundo começou a pesquisar o que é isso, mas que basicamente o que ele fala é quando você tem uma inovação, alguma coisa que é muito mais barata por um lado, isso para de dar dinheiro porque ficou muito mais barato, você não vai mais cobrar tão caro barato. Você não vai mais cobrar tão caro, né De repente a Open AI não vai poder continuar seguindo cobrando 60 dólares por isso se tem um competidor que entrega algo similar por 2 dólares, mas por outro lado muito mais gente pode usar isso.

Speaker 1:

Então de repente tem um monte de produto que hoje era inviável cobrar um premium pra usar, que passa a usar. Então a demanda cresce tanto que o total de dinheiro que isso faz aumenta até o ponto que isso vira um commodity. Então passa a não ter tanta diferenciação, mas vira um commodity também do ponto de vista de que ninguém mais vive sem então que assim no fim do dia o próprio mercado se ajusta né, é, não sei, eu acho que a gente vai ter que fazer alguns paralelos aí.

Speaker 2:

Acho que ainda é cedo, mas isso sempre me remete assim ao que aconteceu com sei lá streamings, os serviços de streaming que a gente hoje em dia paga vários. Todo mundo começou assinando Netflix, daqui a pouco começou a assinar sei lá Amazon Prime, começou a assinar Disney Plus, e quando a gente vê, a gente tem aí diferentes streamings que tem diferentes conteúdos e a gente vai ficando cada vez mais exigente e tudo mais. Acho que isso pode acontecer com as ferramentas também, porque cada uma vai ser boa em uma coisa talvez, e também me lembra um pouco nuvem, nuvem. Todo esse movimento de ah. Me lembra um pouco nuvem, quando começou e a gente ficou tentando entender qual ia ser a mudança de você deixar de ter aqueles, aqueles CPUs, todas aquelas áreas dentro das empresas pra poder armazenar tudo, e de repente você colocar tudo na nuvem e você permitir que tudo você ficar mais leve e essas coisas estão armazenadas.

Speaker 2:

Não sei, eu fico tentando pensar como é que você cobra o armazenamento em nuvem, como é que a gente começou o modelo de precificação, como é que ele, quem estabeleceu isso primeiro? porque na verdade hoje, quando você fala de nuvem, você tem cinco empresas no mundo que fazem isso, que é um pouco como a gente está hoje com relação à inteligência artificial. A gente também está na mão de cinco empresas. Então não sei, eu fico pensando quais são os paralelos de negócio que a gente vai ter que fazer pra pensar eu estou muito.

Speaker 1:

São os paralelos de negócio que a gente vai ter que fazer pra pensar Eu tô muito inserida nisso, né Então esses modelos que você fala, né Que antes era localmente, a gente chama de on-premise, né Que você tinha a sua estrutura de servidor e tudo isso, você rodava tudo lá. Aí de repente falou não, não tem mais porquê né Assim, a partir do momento que as conexões melhorvem e tudo que lançou esse modelo, todo foi pra isso. Você vai acessar um negócio que não tá na tua empresa, tá num outro lugar e você vai ter mais segurança. Você vai ter update sempre, você vai ter uma série de benefícios por estar isso. Isso tá acontecendo.

Speaker 1:

Aí de repente o custo de processamento e API começou a ficar tão alto. Começou a falar pô, talvez o futuro, principalmente pra algum tipo de aplicação específica, né em algumas indústrias e tal seja voltar isso on-premise porque talvez seja melhor, seja até melhor né eu ter um super negócio no meu, um super processador no meu celular e eu rodar remotamente lá no meu celular, remotamente não né, mas ali no meu celular alguns desses modelos de inteligência artificial pra eu não ter que esse dado, ir pra um outro lugar ser processado, eu pagar uma fortuna e voltar. Aí de repente acontece isso que tem um deep seek que é muito mais barato, e você fala não, então peraí, então tá fechando a conta, vou sim mandar processar no outro negócio porque ficou mais barato. Então acho que tá tudo mudando muito rápido. Realmente é difícil a gente agora saber dizer né rápido. Realmente É difícil a gente agora saber dizer né.

Speaker 2:

E eu acho que isso é a parte que mais me interessa. Né Eu acho que a gente tem esse olhar complementar, né, fê Que você vai mergulhar nessa coisa técnica que você ama e eu fico mais olhando pra ver pra onde o mundo vai. Né Porque eu acho que esse, como eu falei a pouco, essa coisa do chip ter virado uma questão geopolítica.

Speaker 1:

E agora vamos falar disso um pouco e essa parte militar conta disso um pouco.

Speaker 2:

Acho que a gente ainda tem pouco informação sobre isso, mas a gente tem uma memória e eu também sou jovem há bastante tempo, como você. Então me lembro quando eu estava nos Estados Unidos eu morei nos Estados Unidos nos anos 90, no início do Vale do Silício, no auge do Vale do Silício na verdade, e a gente tinha a Intel. A Intel era uma potência, era a NVIDIA daquela época. Quem vai lembrar aqui era isso antes do Oriente dominar esse mundo. A Intel era tudo nos Estados Unidos e essa indústria de chip se transferiu toda pra lá e acho que ninguém percebeu o quanto isso era estratégico pro poder de um país. Então a gente já passou petróleo já foi isso, enfim, energia já foi isso, agora é chip, é quem tem chip. Então eu acho que essa briga passa muito por isso. Acho que muitas mudanças no comércio exterior, nas cadeias de suprimento, vão ser impactadas por essa notícia, por essa novidade.

Speaker 2:

Em Davos se falou muito disso, desses acordos de international trade, como uma agenda importante nos próximos anos. O Trump já chegou na Casa Branca com muitas certezas de como ele vai lidar com isso e eu acho que ele foi de certa forma pego de surpresa porque na semana em que ele anuncia o projeto Stargate, que era para ser talvez a grande notícia boa da primeira semana dele de governo, porque ele veio com umas medidas mais impopulares para muita gente, como a questão dos imigrantes, das deportações, das tarifas, aumentando então um monte de coisas mais difíceis de digerir por parte da comunidade internacional. Aí ele vem com essa notícia de que os Estados Unidos estavam fazendo uma espécie de uma joint venture, juntando Oracle, openai e SoftBank para investir 500 bilhões de dólares na infraestrutura de inteligência artificial nos Estados Unidos, na mesma semana que veio à tona a história da Deep Seek. Então, de uma certa forma, toda essa a construção da narrativa do Trump super próximo dos Big Tech moguls, aquelas figuras Zuckerberg, jeff Bezos, elon Musk, todos eles que são que mostram que no governo do Trump a gente vai ver uma mudança de influência que até então era de Wall Street no governo americano e hoje passa a ser do Silicon Valley, até então sempre Wall Street sendo muito referência e muita influência na Casa Branca e agora isso, passando a ser o eixo de poder, mudou para o Vale do Silício.

Speaker 2:

Então toda essa narrativa de que a tecnologia vai ser a grande entrega do Trump nesse mandato, vai ser um governo pautado pela tecnologia ou seja um governo que vai falar menos de regulação, mais de incentivos à tecnologia e tudo mais. De repente isso tudo vai ser colocado em xeque. Não sabemos, é cedo ainda para dizer, mas é possível que isso aconteça. Né A gente tem a Anthropic que acabou de levantar um bi de dólar do Google semana passada. Será que o Google não está sabe, coçando a cabeça e pensando será que umbia demais? Será que eu estou, eu apostei num valuation muito alto?

Speaker 2:

Será que eu precisava investir tudo isso? Então acho que todas essas perguntas agora vão vir à tona né esses valuations dessas empresas, as rodadas de investimento, todo o capital de risco que estava sendo investido, né derramado nessas empresas de inteligência artificial nos Estados Unidos e na Europa também. Não foi diferente. Na Europa, claro que em menor escala, mas também muito na Europa. Agora está todo mundo pensando assim mas precisava tudo isso? será que então não tem um jeito mais simples de fazer e ao mesmo tempo, uma empresa chinesa, que é o mesmo princípio das outras empresas chinesas, que todo mundo está jogando seus dados lá? ninguém sabe como isso vai ser utilizado. Certamente isso vai ter alguma retaliação do Trump. Em breve, assim como fez com o TikTok, vai haver também com o DeepSeek. Mas eu acredito que o impacto do DeepSeek é muito mais na forma das pessoas da forma como o desenvolvimento da AI vem sendo feito, do que no próprio aplicativo em si, mas é uma primeiras impressões.

Speaker 1:

Não, eu concordo super E você sabe que também continua. Né, Porque eu acho que cada empresa continua um pouco da sua narrativa. Então tem várias que estão defendendo que ainda precisa fazer um mega investimento. Sim, porque vai ser a capacidade de processamento que vai trazer os modelos melhores e vai fazer a diferença. Tem, por outro lado, né O Ian Lecum.

Speaker 2:

Fala, fala. Não, eu ia fala. Essa defesa veio muito do Dario Amodei na carta que ele publicou ontem. Ele precisa dar uma justificativa para os investidores ele precisa explicar gente calma, não é isso que vocês estão pensando, não é bem assim. A gente continua precisando de muito dinheiro porque quanto mais dinheiro, melhor vão seus modelos. Eu acho que ele tomou uma atitude ali de defender, de se defender e se justificar.

Speaker 1:

Na verdade, pro mercado Perfeito, do mesmo jeito que o Ian Lecun, que é esse cara da meta que insiste nesses modelos de open source, open weight, ele também falando gente, tá errada essa perspectiva de Estados Unidos versus China. o que tá acontecendo é modelo fechado versus modelo aberto. Essa é a beleza do modelo aberto. A gente colocou uma coisa no mundo, um cara foi lá, aprimorou uma outra parte e publicou, e agora o outro vai pegar isso e vai fazer E também entra na discussão interessante que é você pode até colocar um bear em cima de um hardware, de uma coisa física, mas você não vai conseguir limitar software ou conhecimento ou coisas assim, porque isso já é muito mais difícil de você controlar.

Speaker 1:

Mas eu acho que a gente ainda está nisso de enquanto essas empresas não têm uma outra narrativa, uma outra história para o mercado, mercado de ação, mesmo que conte justifique o que elas estão fazendo, elas acabam insistindo nas suas narrativas. Acho que tem muitas coisas que são legais disso tudo E acho que o mais legal né Acho que as coisas que a gente mais deu risada essa semana desse assunto foi né A piada que mais rodou, que foi meu Deus, o chat de EPT perdeu o emprego para uma inteligência artificial, que essa foi ótima. E a segunda foi o Gary Marcos falando que a OpenAI estava acusando ou falando. Eu vi o David Sacks numa entrevista, também falando que tem vários indícios de que esse modelo, sim, usou o chat de ETT para ser treinado.

Speaker 1:

E uma das coisas que eu estava vendo sobre isso é que, justamente, como ele acaba mostrando o raciocínio você estava comentando né de que faz uma pergunta de uma coisa que ele não devia responder da China, ele começa a responder e ele apaga tudo e fala vamos mudar de assunto E que isso, no fundo, os outros modelos poderiam fazer isso.

Speaker 1:

Isso é uma decisão de user interface, né Qualquer experiência do usuário de mostrar o raciocínio ou não mostrar. Então talvez outras empresas comecem a mostrar isso um pouco mais nos seus aplicativos. Mas que quando você falava mas como que você é feito Da onde que você nasceu Ele começava a falar não, eu fui desenvolvido pela OpenAI, quer dizer, não, eu fui desenvolvido pela DeepSeek. ele acabava se traindo nesse processo todo. mas tem isso e que é mega engraçado que tá todo mundo virando e falando a OpenAI tá lá falando não, você enfriou os termos de uso porque você tá usando o meu modelo pra treinar, e como que a OpenAI treinou né Béa Em cima dos dados do New York Times, do YouTube e que daí o Gary Marcus Bini termina falando é Karma is a bitch. Morre Rolei no chão de dar risada com essa.

Speaker 2:

É, ele é ótimo, né Ele é super crítico e ele realmente deu essa cutucada, né Dizendo tá vendo O famoso, aqui se faz, aqui se paga.

Speaker 1:

Isso é exatamente a mesma tradução.

Speaker 2:

Totalmente, aqui se paga E eu acho que foi isso. Agora, enfim, vai ter uma tentativa tremenda, provavelmente o War Room Room, lá na Casa Branca, na Meta, todo mundo tentando entender como é que eles vão impedir, frear esse avanço. Mas assim, gente, too Late, o gênio já saiu da lâmpada agora. O Alibaba também já anunciou hoje que ele tem um modelo melhor ainda que o da Deep Seek, que ele já conseguiu, e tudo mais. Então, assim a China.

Speaker 1:

O Run to Launch, que chama o termo.

Speaker 2:

Race to Launch. Race to Launch.

Speaker 1:

Agora minha filha Vai nessas últimas consequências.

Speaker 2:

É assim. Eu acho que tudo isso pra dizer que a China Com a China não se brinca né Eu vou chover no molhado. Aqui muita gente já falou isso a China.

Speaker 1:

É vai ter expedição pra China. Dea Pois é agora tem uma demanda a.

Speaker 2:

China tá tendo menina. Tá todo mundo querendo ir pra China agora. Todo mundo quer visitar a Deep Sea.

Speaker 2:

Vamos lá visitar a Deep Sea, vamos arrastar pra China agora Dea eu fui em 2019 e fiquei muito impressionada com um report que eu tive acesso nessa viagem e que mostrava exatamente um roadmap pra China conquistar a liderança mundial em inteligência artificial. Lembrando que em 2019 a gente falava bem menos de inteligência artificial do que a gente fala hoje, né. Então eu lembro que eu fiquei muito impressionada com isso porque pra mim ainda era uma coisa a ser desbravada E o roadmap era muito claro 2030 era o momento em que a China ia dominar a inteligência artificial. De onde hoje, olhando pra tudo isso, eu concluo que provavelmente é quando eles estão estimando chegar na super inteligência, na Singularity ou no AGI, o que a gente está aqui especulando. Quando vai chegar, né que acho que isso pode ser o papo pra um próximo podcast, porque não dá tempo da gente cobrir tudo hoje, mas AGI e super inteligência.

Speaker 1:

O Miki já tá mandando mensagem. Gente deu, uma hora chega e a gente tá aqui tipo ignorando né tipo o pai falando acabou a brincadeira e você ignorando, eu falo vamos continuar.

Speaker 2:

É não a gente vai ter que fazer um corte aqui, senão o podcast vai ficar, aqueles podcasts do Lex Friedman de 4 horas, 5 horas. Mas enfim, eu acho só que é importante a gente só pontuar isso. Pra terminar. Eu acho que assim a China é todo um mindset muito diferente. Esse report que eu vou tentar resgatar que ele foi de 2019, ele mostrava assim, por exemplo, a quantidade de engenheiros formados por ano na China versus a quantidade de engenheiros formados por ano nos Estados Unidos, na Índia, em alguns países da União Europeia, e assim é uma outra mentalidade. Eles têm muitos talentos, muito, muito mais talento do que outros países reunidos. Eles têm uma política que não é de governo e sim uma política de Estado. Eles têm um governo que desenha um roadmap, põe dinheiro nisso e executa. Ele tem um roadmap muito claro de como as coisas vão se desenvolver. Não tem como num governo democrático que tem troca de poder a cada quatro anos. Então os governos estão sempre se preocupando, com a próxima eleição, em tomar medidas que sejam populares para que ele possa reeleger o candidato dele. Então isso distrai e interrompe muitas vezes um fluxo de desenvolvimento positivo, benéfico pra sociedade, pra aquela população. E na China não tem isso. Eles definem um objetivo final, colocam dinheiro, colocam as pessoas e vão, e isso é incontornável. Eles não mudam de ideia no meio do caminho, não tem uma outra força externa impactando.

Speaker 2:

Então que a China faz ser a líder mundial em inteligência artificial? eu tenho zero dúvida. Sabe, eu acho que eles tem essa, eles tem o talento, eles tem os recursos. Então, assim, se os Estados Unidos vai querer enfim embargar a chip, eu acho que não é isso que vai resolver, eu acho que too late, acho que é um pouco ingênuo. Os americanos pensarem assim agora, se é bom pro mundo que a China seja essa líder mundial em inteligência artificial, isso já é uma outra conversa. Eu também não acho bom que os Estados Unidos seja. Então assim, eles estão colocando a carta do Dario Amodei ontem. Ele coloca esse risco, esse perigo, ah, é muito perigoso. Porque a China pode usar isso para fins militares? Ué, os Estados Unidos não pode. Tipo, quem garante que os Estados Unidos não vai usar? Também não acho que a gente tenha muitas garantias ali.

Speaker 2:

Claro. Então acho que isso são questões que a gente vai ter que pensar. Certamente tem muita gente grande pensando nisso e nos próximos dias a gente vai tomar um pouco mais de pé aí da situação.

Speaker 1:

Mas né acho que E minutos finais aqui também né, mas acho que só o último comentário que eu queria fazer, que a gente acabou não cobrindo tanto foi o impacto que isso teve na Bolsa. Né, eu acho que depois várias empresas se recuperaram, mas é o que você falou, né assim é uma bolha, não é uma bolha, não é uma bolha. Envite, uma empresa incrível que vai continuar existindo. Agora a ação está precificada, certa, não está, e qualquer coisa quando tem uma valorização assim é normal que tenha uma queda. E eu estava lendo um artigo falando um pouco de como que as empresas estão posicionadas nisso E a visão é que a Apple está bem posicionada porque ela já tem um modelo mais agnóstico, ela tem produtos hardware super bons, o sistema de memória que ela tem permite que ela rode bem esse tipo de inteligência.

Speaker 1:

Então eles entendem que a Apple está bem, que a Microsoft acaba também conseguindo ter uma margem maior, entregar mais diferencial de produto, porque acaba tendo IA mais barata. Então no fim do dia tem um net aí positivo, a meta e até parte de ter esses modelos em open source. No fim do dia, sim, o negócio da meta é a atenção das pessoas. Eles vendem publicidade Se eles conseguirem te deixar mais tempo no WhatsApp usando uma tecnologia dessa, ter mais conteúdo engajante, você ficar lá um tempão no Instagram fazendo um monte de coisa. Ela acaba tendo mais a ganhar com isso do que com a IA especificamente feita.

Speaker 1:

A Nvidia vai continuar existindo, não é assim. Eu acho que vai continuar tendo uma mega demanda, os melhores modelos que ainda estão por vir. A gente tá no comecinho, a gente tá engatinhando nisso vai precisar de muito chip no mundo, porque não é só treinar o modelo. Depois imagina a capacidade, porque hoje, do jeito que a tecnologia já tá, ela não é escalável pela energia que você comentou, pela quantidade. Tem estimativas de que os Estados Unidos precisa dobrar a capacidade de produção de energia, se não me engano, pra conseguir rodar processamento disso tudo. E aí só o último comentário, e que o Google tem uma parte do negócio que se beneficia, mas a parte de busca de search tem um risco grande aí e que a Antropic também não está muito bem posicionada, porque a Antropic não conseguiu fazer essa parte de usuário final, ela não conseguiu virar um app super usado. Então no fundo ela não tem esse aplicativo da entrega do modelo que as outras têm. A OpenAI e o BionBal têm o chat GPT, todas essas outras têm os produtos que entregam e que ela não tem.

Speaker 2:

Não, e essa história da energia só pra gente deixar essa porta aberta, pra gente retomar num outro episódio. Isso tem a ver com essa também determinação do Trump que ele vai drill, baby, drill. Né, essa frase dele ficou famosa, que ele vai tirar todo o petróleo que está no solo americano para poder gerar essa energia que ele precisa para abastecer todos esses data centers e tudo mais. Então tá tudo interligado com essa política. Por isso que eu acho interessante, porque tava tudo muito estruturadinho, sabe, essa toda a primeira semana de governo, o anúncio da Stargate, tudo estava muito bem estruturado em cima dessa narrativa de supremacia e inteligência artificial americana. Tá supremacia americana e inteligência artificial e tá Supremacia americana e inteligência artificial. E eu acho que isso é algo que enfim temos que ver como é que vai se desenrolar.

Speaker 1:

Por isso que nunca existe um dia de tédio no duplo clique E nem trabalhando em tecnologia né gente, porque quando você acha que tá igual muda tudo.

Speaker 2:

É uma loucura Muito bom, De falta de assunto, aqui a gente não morre né.

Speaker 1:

Eu parei, parei, parei, parei. Então terminei.

Speaker 2:

De falta de assunto. O duplo clique não vai morrer. Gente Morreu por outros motivos. Falta de assunto não será. Mas é isso Super. Obrigada. Boa viagem de volta. Volta logo né.

Speaker 1:

Tá bom de férias já né, eu volto, eu volto amanhã à noite. Eu já pego sábado. Eu tô em São Paulo amanhã à noite eu já pego. Né pego o avião, né só tô resfraada, pega a lotação.

Speaker 2:

Pega a lotação. Pega a lotação é. Tá ótimo Sábado. eu já tô controlar aqui o relógio.

Speaker 1:

Um dia talvez você consiga. Miguel Macharazzo, nosso superproducer Dea, super obrigada, sempre uma delícia. É o que a gente falou desde o começo. Né Eu falei meu. Pode ninguém ouvir, só da gente bater o papo e já vai ver o que é né.

Speaker 2:

Aprendemos muito uma com a outra. Foi maravilhoso.

Speaker 1:

Mas a gente tá tendo feedback super legais do podcast. Acho que isso também tá sendo muito legal.

Speaker 2:

Deixem seus reviews votem sigam, porque a gente tá começando, tá só começando. A gente precisa aí ganhar uma atraçãozinha ter mais gente recomendando pra gente, ter mais downloads mas a gente já tá, já tá tendo recorde de download aí.

Speaker 1:

Quem quiser ver nossa cara tam no YouTube também. Entendeu, estou aí ainda mais modesto.

Speaker 2:

E ajudem o nosso podcast. Eu falei que quando a gente batesse um número aqui de download, eu ia comprar um ring light. Então a gente tem umas metas aqui de investir.

Speaker 1:

Eu vou ter que descobrir o que eu preciso colocar na mala agora, né Luz, outras coisas, entendeu.

Speaker 2:

Na viagem. Tá muito engraçado, tá muito engraçado. Então é isso, gente, super boa semana pra todos. Nos vemos aqui na semana que vem.

Speaker 1:

Obrigada Fê, obrigada Mig, obrigada pela companhia de todos Até semana que vem. Beijos Tchau.

People on this episode