{"id":15766,"date":"2025-01-29T22:31:18","date_gmt":"2025-01-30T01:31:18","guid":{"rendered":"https:\/\/baixacultura.org\/?p=15766"},"modified":"2025-01-30T11:39:06","modified_gmt":"2025-01-30T14:39:06","slug":"a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source","status":"publish","type":"post","link":"https:\/\/baixacultura.org\/2025\/01\/29\/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source\/","title":{"rendered":"A corrida da IA ganha um novo cap\u00edtulo – chin\u00eas e open source"},"content":{"rendered":"

 <\/p>\n

Segunda-feira, 27 de janeiro, Wall Street atravessou um de seus dias mais turbulentos. As previs\u00f5es para o setor de intelig\u00eancia artificial desmoronaram, \u201cplayers\u201d viram seus pap\u00e9is derreterem. As a\u00e7\u00f5es da Nvidia, inflacionada pela corrida por chips instalados nas IAs generativas, tombaram 17%, resultando em uma perda de US$ 589 bilh\u00f5es em valor de mercado \u2013 a maior queda di\u00e1ria j\u00e1 registrada na hist\u00f3ria do mercado financeiro americano, que virou mat\u00e9ria e foco de aten\u00e7\u00e3o de diversos jornais. Sete bigtechs<\/em> (Apple, Amazon, Alphabet, Meta, Microsoft, Nvidia e Tesla) viram uma perda de US$ 643 bilh\u00f5es em suas a\u00e7\u00f5es. O respons\u00e1vel por essa reviravolta? Um chatbot de baixo custo lan\u00e7ado por uma startup chinesa, a DeepSeek, criado em 2024 como um bra\u00e7o de pesquisa de um fundo chamado High Flyer, tamb\u00e9m chin\u00eas. Segundo a empresa, o custo de treinamento do modelo por tr\u00e1s da IA, o DeepSeek-R1, foi de aproximadamente US$ 6 milh\u00f5es \u2013 um d\u00e9cimo do que a Meta investiu no desenvolvimento do Llama 3.1, por exemplo, ou menos ainda dos US$ 100 milh\u00f5es que a OpenIA investiu no seu \u00faltimo modelo. Al\u00e9m disso, a startup informou que seu chatbot apresentou um desempenho superior ao GPT-4, da OpenAI, em 20 das 22 m\u00e9tricas analisadas<\/a>.<\/p>\n

N\u00e3o entrando nos pormenores econ\u00f4micos especulativos do mercado de a\u00e7\u00f5es (o tombo se deu no valor do mercado destas big techs a partir da desvaloriza\u00e7\u00e3o de suas a\u00e7\u00f5es), o fato principal aqui \u00e9: a queda foi sobretudo porque a DeepSeek mostrou ao mundo que existe possibilidade de se competir na \u00e1rea com menos dinheiro, investido de forma eficiente<\/b>. Com menos processadores, chips e data centers, a empresa destravou a possibilidade de operar com custos menores, justo semanas depois de Trump, ao lado de Sam Altman (Open IA) e Larry Ellison (Oracle), anunciar o \u201cStargate\u201d<\/a>, um mega programa de investimentos em IA no Texas com potencial anunciado de alavancar at\u00e9 US$ 500 bilh\u00f5es de d\u00f3lares em cinco anos. O lan\u00e7amento do modelo da DeepSeek redesenha a disputa entre EUA e China pela intelig\u00eancia artificial e mostra que, mesmo com as travas colocadas pelo Governo Biden na compra de chips da Nvidia pela China<\/a>, ainda assim \u00e9 poss\u00edvel fazer sistemas robustos de IA de forma mais barata do que Altman e cia afirmam.<\/p>\n

As diferen\u00e7as t\u00e9cnicas do sistema chin\u00eas<\/b><\/h4>\n

Vamos tentar explicar aqui brevemente como funciona o DeepSeek e as principais diferen\u00e7as em rela\u00e7\u00e3o ao seus modelos concorrentes. O rec\u00e9m-lan\u00e7ado R1 \u00e9 um modelo de linguagem em grande escala (LLM) que conta com mais de 670 bilh\u00f5es de par\u00e2metros, projetado a partir de 2.048 chips H800 da Nvidia – estima-se, por exemplo, que os modelos desenvolvidos pelas big techs utilizem cerca de 16 mil chips para treinar os rob\u00f4s. Utiliza-se de aprendizado por refor\u00e7o<\/a>, uma t\u00e9cnica de aprendizado de m\u00e1quina (machine learning<\/i>) em que o sistema aprende automaticamente com os dados e a pr\u00f3pria experi\u00eancia, sem depender de supervis\u00e3o humana,\u00a0 a partir de mecanismos de recompensa\/puni\u00e7\u00e3o.<\/p>\n

Para aumentar sua efici\u00eancia, a DeepSeek adotou a arquitetura Mixture-of-Experts (MoE), uma abordagem dentro do aprendizado de m\u00e1quina<\/a> que, em vez de utilizar todos os par\u00e2metros do modelo (ou toda as redes neurais) em cada tarefa, ativa s\u00f3 os necess\u00e1rios de acordo com a demanda. Isso torna o R1 mais \u00e1gil e reduz o consumo de energia computacional, executando as opera\u00e7\u00f5es de forma mais leve e r\u00e1pida. \u00c9 como se o modelo fosse uma grande equipe de especialistas e, ao inv\u00e9s de todos trabalharem sem parar, apenas os mais relevantes para o trabalho em quest\u00e3o s\u00e3o chamados, economizando tempo e energia.<\/p>\n

Outra t\u00e9cnica utilizada pelo R1 \u00e9 a Multi-Head Latent Attention<\/a> (MLA), que permite ao modelo identificar padr\u00f5es complexos em grandes volumes de dados, usando de 5 a 13% da capacidade de modelos semelhantes como a MHA (Multi-Head Attention), o que a torna mais eficiente, segundo essa an\u00e1lise bem t\u00e9cnica<\/a> publicada por Zain ul Abideen, especialista em LLM e aprendizado de m\u00e1quina, em dezembro 2024. Grosso modo, a MLA analisa de forma simult\u00e2nea diferentes partes dos dados, a partir de v\u00e1rias \u201cperspectivas\u201d, o que possibilita ao DeepSeek-R1 processar informa\u00e7\u00f5es de maneira mais precisa gastando menos recursos de processamento. A MLA funciona como um grupo de pessoas olhando para o mesmo problema de diferentes \u00e2ngulos, sempre buscando a melhor solu\u00e7\u00e3o \u2014 de novo e de novo e de novo, a cada novo desafio.<\/p>\n

Al\u00e9m de seu baixo custo de treinamento, um dos maiores atrativos do modelo est\u00e1 no baixo custo da opera\u00e7\u00e3o geral. Grandes empresas de tecnologia costumam cobrar valores altos para acessar suas APIs, ferramentas que permitem que outras empresas usem seus modelos de intelig\u00eancia artificial em seus pr\u00f3prios aplicativos. A DeepSeek, por outro lado, adota uma abordagem mais acess\u00edvel; a API do R1 custa entre 20 e 50 vezes menos do que a da OpenAI, de acordo com a empresa. O pre\u00e7o de uma API \u00e9 calculado com base na quantidade de dados processados pelo modelo, medido em \u201ctokens\u201d. No caso da DeepSeek, a API cobra US$ 0,88 por milh\u00e3o de tokens de entrada e US$ 3,49 por milh\u00e3o de tokens de sa\u00edda. Em compara\u00e7\u00e3o, a OpenAI cobra US$ 23,92 e US$ 95,70, respectivamente. Ou seja, empresas que optarem pela tecnologia da chinesa podem economizar substancialmente ao integrar o modelo R1 em suas plataformas.<\/p>\n

A DeepSeek declarou que usou 5,5 milh\u00f5es de d\u00f3lares (32 milh\u00f5es de reais) em capacidade computacional, utilizando apenas as 2.048 GPUs Nvidia H800 que a empresa chinesa tinha, porque n\u00e3o podia comprar as GPUs H100 ou A100, superiores, que as big techs acumulam \u00e0s centenas de milhares. Para ter uma ideia: Elon Musk tem 100 mil GPUs, a OpenAI treinou seu modelo GPT-4 em aproximadamente 25 mil GPUs A100.<\/p>\n

Em entrevista \u00e0 TV estatal chinesa<\/a>, Liang Wenfeng, CEO da DeepSeek e tamb\u00e9m do fundo que bancou o modelo (High Flyer), disse que a empresa nunca pretendeu ser disruptiva, e que o \u201cestrelato\u201d teria vindo por \u201cacidente\u201d. \u201cN\u00e3o esper\u00e1vamos que o pre\u00e7o fosse uma quest\u00e3o t\u00e3o sens\u00edvel. Est\u00e1vamos simplesmente seguindo nosso pr\u00f3prio ritmo, calculando custos e definindo pre\u00e7os de acordo. Nosso princ\u00edpio n\u00e3o \u00e9 vender com preju\u00edzo nem buscar lucros excessivos. O pre\u00e7o atual permite uma margem de lucro modesta acima de nossos custos\u201d, afirmou o fundador da DeepSeek.<\/p>\n

\u201cCapturar usu\u00e1rios n\u00e3o era nosso objetivo principal. Reduzimos os pre\u00e7os porque, primeiro, ao explorar estruturas de modelos de pr\u00f3xima gera\u00e7\u00e3o, nossos custos diminu\u00edram; segundo, acreditamos que os servi\u00e7os de IA e API devem ser acess\u00edveis e baratos para todos.\u201d<\/p>\n

Wenfeng \u00e9 bacharel e mestre em engenharia eletr\u00f4nica e da informa\u00e7\u00e3o pela Universidade de Zhejiang. Entre muitas especula\u00e7\u00f5es moment\u00e2neas sobre sua vida pessoal, o que se sabe \u00e9 que o empres\u00e1rio de 40 anos parece \u201cmais um nerd do que um chefe<\/a>\u201d e que \u00e9 um entusiasta do modelo open source de desenvolvimento, o que nos leva para o pr\u00f3ximo t\u00f3pico.<\/p>\n

As vantagens do c\u00f3digo aberto\u00a0<\/b><\/h4>\n

Um componente fundamental do sucesso (atual) do modelo chin\u00eas \u00e9 o fato de estar em c\u00f3digo aberto. O DeepSeek-V3<\/a>, lan\u00e7ado no final de 2024, est\u00e1 dispon\u00edvel no GitHub<\/a>, com uma documenta\u00e7\u00e3o detalhada sobre como foi feito e como pode ser replicado.<\/p>\n

Isso, na pr\u00e1tica, tem fomentado uma corrida de v\u00e1rias pessoas e grupos para experimentar fazer seus pr\u00f3prios modelos a partir das instru\u00e7\u00f5es dadas pela equipe do DeepSeek. D\u00ea uma busca no Reddit e nos pr\u00f3prios buscadores nestes \u00faltimos dias de janeiro de 2025 e voc\u00ea j\u00e1 ver\u00e1 uma enxurrada de gente fazendo.<\/p>\n

Como voc\u00eas j\u00e1 ouviram falar no \u201cA Cultura \u00e9 Livre<\/a>\u201d, a natureza do c\u00f3digo aberto, de origem filos\u00f3fica no liberalismo cl\u00e1ssico do s\u00e9culo XVII e XVIII, permite mais colabora\u00e7\u00f5es, e acaba por impulsionar tanto a concorr\u00eancia de outras empresas no setor quanto diferentes forks<\/i> independentes e aut\u00f4nomos individuais. Vale, por\u00e9m, aqui dizer que o c\u00f3digo aberto n\u00e3o \u00e9 o mesmo que um software livre. Software de c\u00f3digo aberto (free\/libre\/open<\/i> source software, acr\u00f4nimo Floss<\/i> adotado pela primeira vez em 2001) \u00e9 um nome usado para um tipo de software que surgiu a partir da chamada Open Source Initiative<\/i> (OSI), estabelecida em 1998 como uma dissid\u00eancia com alguns princ\u00edpios mais pragm\u00e1ticos<\/a> que os do software livre. A flexibiliza\u00e7\u00e3o na filosofia de respeito \u00e0 liberdade dos usu\u00e1rios (mais r\u00edgida e comprometida com a justi\u00e7a social no software livre, mais pragm\u00e1tica e aplic\u00e1vel como metodologia de desenvolvimento no open source<\/i>) propiciou uma expans\u00e3o consider\u00e1vel tanto do software de c\u00f3digo aberto quanto de projetos e empresas que t\u00eam este tipo de software como produto e motor de seus neg\u00f3cios. A OSI tem como texto filos\u00f3fico central \u201cA catedral e o bazar<\/a>\u201d, de Eric Raymond, publicado em 1999. Nele, Raymond trabalha com a ideia de que \u201chavendo olhos suficientes, todos os erros s\u00e3o \u00f3bvios\u201d, para dizer que, se o c\u00f3digo fonte est\u00e1 dispon\u00edvel para teste, escrut\u00ednio e experimenta\u00e7\u00e3o p\u00fablica, os erros ser\u00e3o descobertos mais rapidamente.<\/p>\n

A defini\u00e7\u00e3o da OSI<\/a> diz que um sistema open source <\/i>\u00e9:<\/p>\n

\u201cThe program must include source code, and must allow distribution in source code as well as compiled form. Where some form of a product is not distributed with source code, there must be a well-publicized means of obtaining the source code for no more than a reasonable reproduction cost, preferably downloading via the Internet without charge. The source code must be the preferred form in which a programmer would modify the program. Deliberately obfuscated source code is not allowed. Intermediate forms such as the output of a preprocessor or translator are not allowed.<\/i>\u201d<\/p><\/blockquote>\n

O esclarecimento sobre o que \u00e9 c\u00f3digo aberto \u00e9 importante porque, na esteira do desenvolvimento das IAs de c\u00f3digo aberto, vem tamb\u00e9m surgindo um movimento de open washing<\/i><\/a>, ou seja: a pr\u00e1tica de empresas privadas dizerem que os c\u00f3digos de seus sistemas algor\u00edtmicos s\u00e3o abertos – quando na verdade n\u00e3o s\u00e3o t\u00e3o abertos assim. Ou ent\u00e3o quando grandes corpora\u00e7\u00f5es (ou startups<\/i>) iniciam projetos em c\u00f3digo aberto para incorporar o trabalho colaborativo de colaboradores (desenvolvedores, tradutores, cientistas de dados) – para logo depois, quando o projeto se torna mais robusto, fecharem o c\u00f3digo e nunca mais abrirem. \u201cO Google tem um hist\u00f3rico nessa pr\u00e1tica, a pr\u00f3pria OPEN IA fez isso – e foi processada por Elon Musk (!)<\/a> justamente por n\u00e3o seguir os princ\u00edpios abertos.<\/p>\n

Escrevemos em nossa \u00faltima newsletter do BaixaCultura<\/a> que a Meta, ao dizer que seu modelo LLama \u00e9 aberto, vem \u201cpoluindo\u201d e \u201cconfundindo\u201d o open source, como afirma Stefano Maffulli<\/a>, diretor da Open Source Initiative (OSI). Mas o que o Llama traz como aberto, por\u00e9m, s\u00e3o os pesos que influenciam a forma como o modelo responde a determinadas solicita\u00e7\u00f5es. Um elemento importante para a transpar\u00eancia, mas que por si s\u00f3 n\u00e3o faz se encaixar na defini\u00e7\u00e3o do open source<\/i>. A licen\u00e7a sob a qual o Llama foi lan\u00e7ado n\u00e3o permite o uso gratuito da tecnologia por outras empresas, por exemplo, o que n\u00e3o est\u00e1 em conformidade com as defini\u00e7\u00f5es de c\u00f3digo aberto reconhecidas pela OSI. \u201cProgramadores que utilizam modelos como o Llama n\u00e3o t\u00eam conseguido ver como estes sistemas foram desenvolvidos, ou construir sobre eles para criar novos produtos pr\u00f3prios, como aconteceu com o software de c\u00f3digo aberto\u201d, acrescenta Maffuli.<\/p>\n

Mas existem IAs totalmente abertas?<\/b><\/h4>\n

A disputa (velha, ali\u00e1s) pelo que de fato \u00e9 open source<\/i> – e principalmente o que n\u00e3o \u00e9 – tamb\u00e9m ganha um novo cap\u00edtulo com o DeepSeek. A \u201cOSI AI Definition \u2013 1.0-RC1<\/a>\u201d aponta que uma IA de c\u00f3digo aberto deve oferecer quatro liberdades aos seus utilizadores:<\/p>\n

_ Utilizar o sistema para qualquer fim e sem ter de pedir autoriza\u00e7\u00e3o;<\/p>\n

_ Estudar o funcionamento do sistema e inspecionar os seus componentes;<\/p>\n

_ Modificar o sistema para qualquer fim, incluindo para alterar os seus resultados;<\/p>\n

_ Partilhar o sistema para que outros o utilizem, com ou sem modifica\u00e7\u00f5es, para qualquer fim;<\/p>\n

Nos quatro pontos o DeepSeek v-1 se encaixa. Tanto \u00e9 que, como mencionamos antes, j\u00e1 tem muita gente fazendo os seus; seja criando modelos ainda mais abertos<\/a> quanto para ser executada localmente em um dispositivo separado<\/a>, com boas possibilidades de customiza\u00e7\u00e3o e com exig\u00eancia t\u00e9cnica poss\u00edvel na maior parte dos computadores bons de hoje em dia. Para n\u00e3o falar em modelos parecidos que j\u00e1 est\u00e3o surgindo na China, como o Kimi k1.5<\/a>, lan\u00e7ado enquanto esse texto estava sendo escrito – o que motivou memes de que a competi\u00e7\u00e3o real na geopol\u00edtica de IA est\u00e1 sendo feita entre regi\u00f5es da China, e n\u00e3o entre EUA X China<\/a>.<\/p>\n

O fato de ser de c\u00f3digo aberto faz com que o DeepSeek, diferente do ChatGPT ou do LLama, possa ser acoplado e inserido com diferentes funcionalidades por outras empresas, grupos, pessoas com mais facilidade e menor custo. Ao permitir que novas solu\u00e7\u00f5es surjam, torna a barreira de entrada da intelig\u00eancia artificial muito menor e estoura a bolha especulativa dos financistas globais sobre o futuro da tecnologia – o que talvez seja a melhor not\u00edcia da semana.<\/p>\n

Mas h\u00e1 um por\u00e9m importante nessa discuss\u00e3o do c\u00f3digo aberto: as bases de dados usadas para treinamento dos sistemas.<\/b> Para treinar um modelo de IA generativa, parte fundamental do processo s\u00e3o os dados utilizados e como eles s\u00e3o utilizados. Como analisa o fil\u00f3sofo e programador Tante nesse <\/a>\u00f3timo texto, os sistemas de IA generativa (os LLMs) s\u00e3o especiais porque n\u00e3o consistem em muito c\u00f3digo em compara\u00e7\u00e3o com o seu tamanho. Uma implementa\u00e7\u00e3o de uma rede neural \u00e9 constitu\u00edda por algumas centenas de linhas de Python, por exemplo, mas um LLM moderno \u00e9 composto por algum c\u00f3digo e uma arquitetura de rede – que depois vai ser parametrizada com os chamados \u201cpesos\u201d, que s\u00e3o os milhares de milh\u00f5es de n\u00fameros necess\u00e1rios para que o sistema fa\u00e7a o que quer que seja, a partir dos dados de entrada. Assim como os dados, estes \u201cpesos\u201d tamb\u00e9m precisam ser deixados claros quando se fala em open source<\/i>, afirma Tante.<\/p>\n

N\u00e3o est\u00e1 claro, ainda, quais foram os dados de treinamento do DeepSeek e como estes pesos foram distribu\u00eddos. Endossando Tante, Timnit Gibru disse neste post<\/a> que para ser open source <\/i>de fato teria que mostrar quais os dados usados e como foram treinados e avaliados. O que talvez nunca ocorra de fato, pois isso significa assumir que a DeepSeek pegou dados de forma ilegal na internet tal qual o Gemini, a LLama e a OpenIA – que est\u00e1 acusando a DeepSeek de fazer o mesmo que ela fez<\/a> (!). Outras IAs de c\u00f3digo aberto tamb\u00e9m n\u00e3o deixam muito claro como funcionam suas bases, embora as propriet\u00e1rias muito menos. Ainda assim, s\u00e3o os modelos de IA identificados como open source, com seus c\u00f3digos dispon\u00edveis no Github, os que lideram o n\u00edvel de transpar\u00eancia, segundo este \u00edndice criado por pesquisadores da Universidade de Stanford<\/a>, que identificou como os mais transparentes o StarCoder<\/a> e o Jurassic 2<\/a>.<\/p>\n

Podemos concluir que na escala em que estamos falando desses sistemas estat\u00edsticos atualmente, e entendendo o acesso e o tratamento dos dados como elementos constituintes do c\u00f3digos a ser aberto, uma IA totalmente open source<\/i> pode ser quase uma utopia. Muitos modelos menores foram e est\u00e3o sendo treinados com base em conjuntos de dados p\u00fablicos explicitamente selecionados e com curadoria. Estes podem fornecer todos os processos, os pesos e dados, e assim serem considerados, de fato, como IA de c\u00f3digo aberto. Os grandes modelos de linguagem que passamos a chamar de IA generativa, por\u00e9m, baseiam-se todos em material adquirido e utilizado ilegalmente tamb\u00e9m porque os conjuntos de dados s\u00e3o demasiado grandes para fazer uma filtragem efetiva de copyright e garantir a sua legalidade – e, talvez, mesmo a sua origem definitiva, dado que muitas vezes podemos ter acesso ao conjunto<\/i> de uma determinada base de dados, mas n\u00e3o exatamente<\/i> que tipo de dado desta base foi utilizada para treinamento. Ali\u00e1s, n\u00e3o \u00e9 surpresa que hoje muitos dos que est\u00e3o procurando saber exatamente o dado utilizado s\u00e3o detentores de copyright em busca de processar a Open AI por roubo de conte\u00fado.<\/p>\n

Mesmo que siga o desafio de sabermos como vamos lidar com o treinamento e a rastreabilidade dos dados usados pelos modelos de IA, a chegada do DeepSeek como um modelo de c\u00f3digo aberto (ou quase<\/i>) tem enorme import\u00e2ncia sobretudo na amplia\u00e7\u00e3o das possibilidades de concorr\u00eancia frente aos sistemas da big techs. N\u00e3o \u00e9 como se o imp\u00e9rio das grandes empresas de tecnologia dos Estados Unidos tivesse ru\u00eddo da noite pro dia, mas houve uma grande demonstra\u00e7\u00e3o de como a financeiriza\u00e7\u00e3o da economia global amarrou uma parte gigantesca do valor financeiro do mundo \u00e0s promessas de engenheiros que claramente estavam equivocados nas suas proje\u00e7\u00f5es do que era preciso para viabilizar a intelig\u00eancia artificial – seja para ganhos especulativos ou por puro desconhecimento.<\/p>\n

A parte ainda n\u00e3o solucionada da equa\u00e7\u00e3o \u00e9 uma repeti\u00e7\u00e3o do antigo epis\u00f3dio envolvendo o lan\u00e7amento do Linux: se essa solu\u00e7\u00e3o estar\u00e1 dispon\u00edvel para ser destrinchada por qualquer um, como isso vai gerar mais independ\u00eancia aos cidad\u00e3os? A intelig\u00eancia artificial tem milhares de aplica\u00e7\u00f5es imaginadas, e at\u00e9 agora se pensava em utiliz\u00e1-la nos processos produtivos de diversas ind\u00fastrias e servi\u00e7os pelo mundo. Mas como ela pode sugerir independ\u00eancia e autonomia para comunidades, por exemplo? Espera-se, talvez de maneira inocente, que suas solu\u00e7\u00f5es sejam aproveitadas pela sociedade como um todo, e que n\u00e3o sejam meramente cooptadas pelo mercado para usos privados como tem ocorrido at\u00e9 aqui. Por fim, o que se apresenta \u00e9 mais um marco na hist\u00f3ria da tecnologia, onde ela pode dobrar a curva da independ\u00eancia, ou seguir no caminho da instrumentaliza\u00e7\u00e3o subserviente \u00e0s taxas de lucro.<\/p>\n

[Leonardo Foletto e Victor Wolffenb\u00fcttel<\/strong>]<\/p>\n","protected":false},"excerpt":{"rendered":"

  Segunda-feira, 27 de janeiro, Wall Street atravessou um de seus dias mais turbulentos. As previs\u00f5es para o setor de intelig\u00eancia artificial desmoronaram, \u201cplayers\u201d viram seus pap\u00e9is derreterem. As a\u00e7\u00f5es da Nvidia, inflacionada pela corrida por chips instalados nas IAs generativas, tombaram 17%, resultando em uma perda de US$ 589 bilh\u00f5es em valor de mercado […]<\/p>\n","protected":false},"author":2,"featured_media":15767,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[122],"tags":[6659,2172,410,1731,925,6657,1837,6658,107,1990],"post_folder":[],"jetpack_featured_media_url":"https:\/\/baixacultura.org\/wp-content\/uploads\/2025\/01\/deepseek.png","_links":{"self":[{"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/posts\/15766"}],"collection":[{"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/comments?post=15766"}],"version-history":[{"count":10,"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/posts\/15766\/revisions"}],"predecessor-version":[{"id":15777,"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/posts\/15766\/revisions\/15777"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/media\/15767"}],"wp:attachment":[{"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/media?parent=15766"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/categories?post=15766"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/tags?post=15766"},{"taxonomy":"post_folder","embeddable":true,"href":"https:\/\/baixacultura.org\/wp-json\/wp\/v2\/post_folder?post=15766"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}