{"id":32617,"date":"2025-01-28T00:10:03","date_gmt":"2025-01-28T03:10:03","guid":{"rendered":"https:\/\/tiproject.online\/index.php\/2025\/01\/28\/ia-chinesa-abala-o-vale-do-silicio\/"},"modified":"2025-01-28T00:10:03","modified_gmt":"2025-01-28T03:10:03","slug":"ia-chinesa-abala-o-vale-do-silicio","status":"publish","type":"post","link":"https:\/\/tiproject.online\/index.php\/2025\/01\/28\/ia-chinesa-abala-o-vale-do-silicio\/","title":{"rendered":"IA chinesa abala o Vale do Sil\u00edcio"},"content":{"rendered":"<p><\/p>\n<div data-v-232111b4=\"\" data-v-0413e3c7=\"\"><!----><\/p>\n<p class=\"bullet mt-0\" data-v-232111b4=\"\">Por\u00e9m, foi no fim do ano passado que surgiu o modelo que hoje chacoalha todo o mercado de IA. A DeepSeek \u00e9 uma startup chinesa que desenvolveu um modelo de c\u00f3digo-aberto com desempenho similar ao ChatGPT, mas com o diferencial de ser mais otimizado e barato.<\/p>\n<p class=\"bullet\" data-v-232111b4=\"\">O que chama aten\u00e7\u00e3o nesse processo \u00e9 que os chineses conseguiram driblar as san\u00e7\u00f5es americanas que os impediam de ter acesso aos chips mais avan\u00e7ados para conseguir esse resultado, <a href=\"https:\/\/www.uol.com.br\/tilt\/noticias\/redacao\/2025\/01\/25\/china-dribla-eua-e-vira-potencia-em-ia-usando-chips-norte-americanos.htm\">conforme comentamos no podcast &#8220;Deu Tilt&#8221;<\/a> do <strong>UOL<\/strong>.<\/p>\n<p class=\"bullet\" data-v-232111b4=\"\">As GPUs H100 e H200 da Nvidia est\u00e3o entre as mais poderosas, mas tamb\u00e9m est\u00e3o na lista daquelas que n\u00e3o podem ser comercializadas com a China. Sem acesso ao que tem de mais avan\u00e7ado em chips, os chineses tiveram que pensar em estrat\u00e9gias para criar um modelo mais otimizado e eficiente. E foi isso que aconteceu.<\/p>\n<p class=\"bullet\" data-v-232111b4=\"\">De acordo com o Relat\u00f3rio T\u00e9cnico da DeepSeek, eles precisaram de apenas 2,78 milh\u00f5es de horas de uso de GPUs H800 \u2014um chip com capacidade inferior customizado para a China. Para termos um grau de compara\u00e7\u00e3o, a Meta precisou de 30 milh\u00f5es de horas de uso de GPU H100 para treinar o Llama 3.1, modelo por tr\u00e1s da IA da Meta.<\/p>\n<p><!----><\/p>\n<p class=\"bullet\" data-v-232111b4=\"\">Podemos tamb\u00e9m fazer uma compara\u00e7\u00e3o financeira. Estima-se que o custo para treinar o DeepSeek tenha sido de menos de US$ 6 milh\u00f5es, enquanto o Google investiu mais de US$ 170 milh\u00f5es para treinar o Gemini.<\/p>\n<p><!----><\/p>\n<p class=\"bullet\" data-v-232111b4=\"\">Esse processo de otimiza\u00e7\u00e3o no treinamento acaba refletido no custo de uso para seus clientes. Enquanto o pre\u00e7o da API do GPT-4o \u00e9 de US$ 2,50 para cada 1 milh\u00e3o de tokens de entrada, o DeepSeek custa apenas US$ 0,27 centavos. O mercado agora tem \u00e0 sua disposi\u00e7\u00e3o um modelo com desempenho parecido com o ChatGPT que custa praticamente um d\u00e9cimo do valor.<\/p>\n<p><!----><!----><\/div>\n<p><script>!function(f,b,e,v,n,t,s) {if(f.fbq)return;n=f.fbq=function() {n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)}; if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)}(window, document,'script', 'https:\/\/connect.facebook.net\/en_US\/fbevents.js'); fbq('init', '1425099884432564'); fbq('track', 'PageView', { content_name: 'DeepSeek: por que a nova IA chinesa abalou o Vale do Sil\u00edcio', content_ids: [82664,13703,80789,79601,79220,77838,79222,82370,82487,82253,81430,79179], is_closed: true, });<\/script><br \/>\n<br \/><a href=\"https:\/\/www.uol.com.br\/tilt\/colunas\/diogo-cortiz\/2025\/01\/27\/deepseek-ia-chinesa-abala-o-vale-do-silicio.htm\">Link da Materia direta da fonte <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Por\u00e9m, foi no fim do ano passado que surgiu o modelo que hoje chacoalha todo o mercado de IA. A DeepSeek \u00e9 uma startup chinesa que desenvolveu um modelo de c\u00f3digo-aberto com desempenho similar ao ChatGPT, mas com o diferencial de ser mais otimizado e barato. O que chama aten\u00e7\u00e3o nesse processo \u00e9 que os chineses conseguiram driblar as san\u00e7\u00f5es americanas que os impediam de ter acesso aos chips mais avan\u00e7ados para conseguir esse resultado, conforme comentamos no podcast &#8220;Deu Tilt&#8221; do UOL. As GPUs H100 e H200 da Nvidia est\u00e3o entre as mais poderosas, mas tamb\u00e9m est\u00e3o na lista daquelas que n\u00e3o podem ser comercializadas com a China. Sem acesso ao que tem de mais avan\u00e7ado em chips, os chineses tiveram que pensar em estrat\u00e9gias para criar um modelo mais otimizado e eficiente. E foi isso que aconteceu. De acordo com o Relat\u00f3rio T\u00e9cnico da DeepSeek, eles precisaram de apenas 2,78 milh\u00f5es de horas de uso de GPUs H800 \u2014um chip com capacidade inferior customizado para a China. Para termos um grau de compara\u00e7\u00e3o, a Meta precisou de 30 milh\u00f5es de horas de uso de GPU H100 para treinar o Llama 3.1, modelo por tr\u00e1s da IA da Meta. Podemos tamb\u00e9m fazer uma compara\u00e7\u00e3o financeira. Estima-se que o custo para treinar o DeepSeek tenha sido de menos de US$ 6 milh\u00f5es, enquanto o Google investiu mais de US$ 170 milh\u00f5es para treinar o Gemini. Esse processo de otimiza\u00e7\u00e3o no treinamento acaba refletido no custo de uso para seus clientes. Enquanto o pre\u00e7o da API do GPT-4o \u00e9 de US$ 2,50 para cada 1 milh\u00e3o de tokens de entrada, o DeepSeek custa apenas US$ 0,27 centavos. O mercado agora tem \u00e0 sua disposi\u00e7\u00e3o um modelo com desempenho parecido com o ChatGPT que custa praticamente um d\u00e9cimo do valor. Link da Materia direta da fonte<\/p>\n","protected":false},"author":1,"featured_media":32618,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_uf_show_specific_survey":0,"_uf_disable_surveys":false,"footnotes":""},"categories":[37],"tags":[],"class_list":["post-32617","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts\/32617","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/comments?post=32617"}],"version-history":[{"count":0,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts\/32617\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/media\/32618"}],"wp:attachment":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/media?parent=32617"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/categories?post=32617"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/tags?post=32617"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}