{"id":34557,"date":"2025-02-13T07:05:22","date_gmt":"2025-02-13T10:05:22","guid":{"rendered":"https:\/\/tiproject.online\/index.php\/2025\/02\/13\/a-inteligencia-artificial-que-estuda-o-mundo-sozinha-the-brief\/"},"modified":"2025-02-13T07:05:22","modified_gmt":"2025-02-13T10:05:22","slug":"a-inteligencia-artificial-que-estuda-o-mundo-sozinha-the-brief","status":"publish","type":"post","link":"https:\/\/tiproject.online\/index.php\/2025\/02\/13\/a-inteligencia-artificial-que-estuda-o-mundo-sozinha-the-brief\/","title":{"rendered":"A intelig\u00eancia artificial que estuda o mundo sozinha &#8211; The BRIEF"},"content":{"rendered":"<p><img  title=\"\"  alt=\"12190934143654 A intelig\u00eancia artificial que estuda o mundo sozinha - The BRIEF\" decoding=\"async\" src=\"https:\/\/img.ibxk.com.br\/2025\/02\/12\/12190934143654.jpg\" \/><\/p>\n<div>\n<p>Um novo estudo das universidades de Hong Kong e Berkeley desafia um dos dogmas do treinamento de intelig\u00eancia artificial: a necessidade de exemplos rotulados por humanos. A pesquisa mostra que modelos de linguagem (LLMs) e vis\u00e3o (VLMs) generalizam melhor quando aprendem por refor\u00e7o, <a href=\"https:\/\/venturebeat.com\/ai\/less-supervision-better-results-study-shows-ai-models-generalize-more-effectively-on-their-own\/\">sem depender de dados pr\u00e9-formatados<\/a>.<\/p>\n<p>Em testes, modelos treinados com refor\u00e7o foram mais eficazes em tarefas novas, enquanto os ajustados com supervis\u00e3o humana apenas memorizaram regras espec\u00edficas. Isso n\u00e3o significa que o aprendizado supervisionado (SFT) seja in\u00fatil. Segundo os pesquisadores, ele ajuda a estabilizar a sa\u00edda dos modelos e a preparar o terreno para que o aprendizado por refor\u00e7o (RL) funcione bem. Mas o estudo refor\u00e7a a tend\u00eancia j\u00e1 explorada por modelos como o DeepSeek-R1, concorrente da OpenAI, que aposta no aprendizado aut\u00f4nomo para resolver problemas complexos.<\/p>\n<p>A implica\u00e7\u00e3o \u00e9 clara: deixar modelos descobrirem suas pr\u00f3prias solu\u00e7\u00f5es pode ser um caminho mais eficiente \u2013 e barato \u2013 do que criar bancos de dados gigantes de treinamento manual. Em \u00e1reas onde os resultados podem ser verificados, essa abordagem pode acelerar inova\u00e7\u00f5es e gerar respostas que nem os humanos teriam previsto.\u00a0<\/p>\n<p>Voc\u00ea acabou de acompanhar uma nota r\u00e1pida by <strong>The BRIEF<\/strong>! <a href=\"https:\/\/thebrief-newsletter.beehiiv.com\/subscribe\">Siga mais informa\u00e7\u00f5es clicando aqui<\/a><\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Um novo estudo das universidades de Hong Kong e Berkeley desafia um dos dogmas do treinamento de intelig\u00eancia artificial: a necessidade de exemplos rotulados por humanos. A pesquisa mostra que modelos de linguagem (LLMs) e vis\u00e3o (VLMs) generalizam melhor quando aprendem por refor\u00e7o, sem depender de dados pr\u00e9-formatados. Em testes, modelos treinados com refor\u00e7o foram mais eficazes em tarefas novas, enquanto os ajustados com supervis\u00e3o humana apenas memorizaram regras espec\u00edficas. Isso n\u00e3o significa que o aprendizado supervisionado (SFT) seja in\u00fatil. Segundo os pesquisadores, ele ajuda a estabilizar a sa\u00edda dos modelos e a preparar o terreno para que o aprendizado por refor\u00e7o (RL) funcione bem. Mas o estudo refor\u00e7a a tend\u00eancia j\u00e1 explorada por modelos como o DeepSeek-R1, concorrente da OpenAI, que aposta no aprendizado aut\u00f4nomo para resolver problemas complexos. A implica\u00e7\u00e3o \u00e9 clara: deixar modelos descobrirem suas pr\u00f3prias solu\u00e7\u00f5es pode ser um caminho mais eficiente \u2013 e barato \u2013 do que criar bancos de dados gigantes de treinamento manual. Em \u00e1reas onde os resultados podem ser verificados, essa abordagem pode acelerar inova\u00e7\u00f5es e gerar respostas que nem os humanos teriam previsto.\u00a0 Voc\u00ea acabou de acompanhar uma nota r\u00e1pida by The BRIEF! Siga mais informa\u00e7\u00f5es clicando aqui<\/p>\n","protected":false},"author":1,"featured_media":34558,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_uf_show_specific_survey":0,"_uf_disable_surveys":false,"footnotes":""},"categories":[37],"tags":[],"class_list":["post-34557","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts\/34557","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/comments?post=34557"}],"version-history":[{"count":0,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts\/34557\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/media\/34558"}],"wp:attachment":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/media?parent=34557"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/categories?post=34557"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/tags?post=34557"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}