{"id":34673,"date":"2025-02-13T13:19:25","date_gmt":"2025-02-13T16:19:25","guid":{"rendered":"https:\/\/tiproject.online\/index.php\/2025\/02\/13\/openai-reve-como-o-chatgpt-deve-lidar-com-assuntos-polemicos\/"},"modified":"2025-02-13T13:19:25","modified_gmt":"2025-02-13T16:19:25","slug":"openai-reve-como-o-chatgpt-deve-lidar-com-assuntos-polemicos","status":"publish","type":"post","link":"https:\/\/tiproject.online\/index.php\/2025\/02\/13\/openai-reve-como-o-chatgpt-deve-lidar-com-assuntos-polemicos\/","title":{"rendered":"OpenAI rev\u00ea como o ChatGPT deve lidar com assuntos pol\u00eamicos"},"content":{"rendered":"<p><\/p>\n<div>\n<p>A OpenAI revisou, nesta quarta-feira (12), as diretrizes sobre como seus modelos generativos devem lidar com assuntos delicados. No documento OpenAI Model Spec, a <strong>empresa definiu posturas, princ\u00edpios e comportamentos que suas intelig\u00eancias artificiais<\/strong> <strong>devem adotar<\/strong> ao abordar temas sens\u00edveis, eticamente complexos ou destinados a adultos.<\/p>\n<p>O novo artigo substitui o antigo Model Spec, publicado em 8 de maio de 2024. Inicialmente, a documenta\u00e7\u00e3o tinha apenas 10 p\u00e1ginas, mas agora conta com 63, <strong>detalhando padr\u00f5es e diretrizes sobre princ\u00edpios como customiza\u00e7\u00e3o, transpar\u00eancia e \u201cliberdade intelectual\u201d<\/strong>.<\/p>\n<p>De forma geral, a OpenAI busca tr\u00eas objetivos principais: maximizar a liberdade dos modelos e sua capacidade de ajudar usu\u00e1rios; reduzir a chance de gerar danos de qualquer tipo; e estabelecer padr\u00f5es claros para lidar com temas sens\u00edveis. Al\u00e9m disso, o Model Spec define n\u00edveis hier\u00e1rquicos para a personaliza\u00e7\u00e3o dos modelos \u2014 sendo a OpenAI, sob lideran\u00e7a de Sam Altman, quem det\u00e9m a maior autoridade sobre essas decis\u00f5es.<\/p>\n<figure class=\"image\"><img  title=\"\"  alt=\"13123821161069 OpenAI rev\u00ea como o ChatGPT deve lidar com assuntos pol\u00eamicos\" decoding=\"async\" src=\"https:\/\/tm.ibxk.com.br\/2025\/02\/13\/13123821161069.jpg\"\/><figcaption>(Fonte: Jonathan Kemper\/Unsplash)<\/figcaption><\/figure>\n<p>At\u00e9 ent\u00e3o, a estrat\u00e9gia da OpenAI para lidar com assuntos delicados era evit\u00e1-los completamente. No entanto, o <strong>novo documento permite que os modelos participem de debates \u00e9ticos ou moralmente controversos<\/strong>, desde que n\u00e3o assumam lados espec\u00edficos \u2014 exceto em situa\u00e7\u00f5es em que uma das alternativas implique danos a outras pessoas.<\/p>\n<p>As diretrizes revisadas tamb\u00e9m regulam a forma como os modelos interagem com conte\u00fados protegidos por direitos autorais. O documento, por exemplo, pro\u00edbe o uso da IA para ultrapassar paywalls \u2014 o que pode ajudar a <a href=\"https:\/\/www.tecmundo.com.br\/software\/400380-openai-apaga-evidencias-de-plagio-de-artigos-do-new-york-times-por-engano.htm\">evitar processos judiciais como os do New York Times<\/a>.<\/p>\n<h2>Conte\u00fado adulto ainda \u00e9 proibido<\/h2>\n<p>Quanto \u00e0 gera\u00e7\u00e3o de conte\u00fado adulto, a <strong>OpenAI continua proibitiva<\/strong>, mas avalia tornar os modelos mais permissivos. \u201cEstamos explorando como permitir que desenvolvedores e usu\u00e1rios gerem conte\u00fado er\u00f3tico ou grotesco em contextos apropriados para a idade, seja por meio de APIs ou do ChatGPT, desde que as pol\u00edticas internas sejam atendidas\u201d, explica a empresa.<\/p>\n<p>Embora o novo Model Spec n\u00e3o cause mudan\u00e7as imediatas no comportamento dos modelos da OpenAI,<strong> ele representa o direcionamento que a empresa pretende seguir <\/strong>ao longo do tempo.<\/p>\n<h2>OpenAI e Google v\u00e3o em dire\u00e7\u00f5es contr\u00e1rias<\/h2>\n<p>A revis\u00e3o das diretrizes ocorre semanas ap\u00f3s o Google reformular suas pol\u00edticas para IA, <a href=\"https:\/\/www.tecmundo.com.br\/mercado\/402245-google-revisa-principios-e-agora-permite-o-uso-de-ia-para-desenvolvimento-de-armas.htm\">tornando-as mais subjetivas e generalistas<\/a> \u2014 o que, segundo cr\u00edticos, pode abrir caminho para o uso b\u00e9lico da tecnologia. No caso da OpenAI, <strong>as novas regras s\u00e3o mais espec\u00edficas, contextualizadas e pragm\u00e1ticas<\/strong>, especialmente no que diz respeito aos impactos na sa\u00fade e no bem-estar humano.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>A OpenAI revisou, nesta quarta-feira (12), as diretrizes sobre como seus modelos generativos devem lidar com assuntos delicados. No documento OpenAI Model Spec, a empresa definiu posturas, princ\u00edpios e comportamentos que suas intelig\u00eancias artificiais devem adotar ao abordar temas sens\u00edveis, eticamente complexos ou destinados a adultos. O novo artigo substitui o antigo Model Spec, publicado em 8 de maio de 2024. Inicialmente, a documenta\u00e7\u00e3o tinha apenas 10 p\u00e1ginas, mas agora conta com 63, detalhando padr\u00f5es e diretrizes sobre princ\u00edpios como customiza\u00e7\u00e3o, transpar\u00eancia e \u201cliberdade intelectual\u201d. De forma geral, a OpenAI busca tr\u00eas objetivos principais: maximizar a liberdade dos modelos e sua capacidade de ajudar usu\u00e1rios; reduzir a chance de gerar danos de qualquer tipo; e estabelecer padr\u00f5es claros para lidar com temas sens\u00edveis. Al\u00e9m disso, o Model Spec define n\u00edveis hier\u00e1rquicos para a personaliza\u00e7\u00e3o dos modelos \u2014 sendo a OpenAI, sob lideran\u00e7a de Sam Altman, quem det\u00e9m a maior autoridade sobre essas decis\u00f5es. (Fonte: Jonathan Kemper\/Unsplash) At\u00e9 ent\u00e3o, a estrat\u00e9gia da OpenAI para lidar com assuntos delicados era evit\u00e1-los completamente. No entanto, o novo documento permite que os modelos participem de debates \u00e9ticos ou moralmente controversos, desde que n\u00e3o assumam lados espec\u00edficos \u2014 exceto em situa\u00e7\u00f5es em que uma das alternativas implique danos a outras pessoas. As diretrizes revisadas tamb\u00e9m regulam a forma como os modelos interagem com conte\u00fados protegidos por direitos autorais. O documento, por exemplo, pro\u00edbe o uso da IA para ultrapassar paywalls \u2014 o que pode ajudar a evitar processos judiciais como os do New York Times. Conte\u00fado adulto ainda \u00e9 proibido Quanto \u00e0 gera\u00e7\u00e3o de conte\u00fado adulto, a OpenAI continua proibitiva, mas avalia tornar os modelos mais permissivos. \u201cEstamos explorando como permitir que desenvolvedores e usu\u00e1rios gerem conte\u00fado er\u00f3tico ou grotesco em contextos apropriados para a idade, seja por meio de APIs ou do ChatGPT, desde que as pol\u00edticas internas sejam atendidas\u201d, explica a empresa. Embora o novo Model Spec n\u00e3o cause mudan\u00e7as imediatas no comportamento dos modelos da OpenAI, ele representa o direcionamento que a empresa pretende seguir ao longo do tempo. OpenAI e Google v\u00e3o em dire\u00e7\u00f5es contr\u00e1rias A revis\u00e3o das diretrizes ocorre semanas ap\u00f3s o Google reformular suas pol\u00edticas para IA, tornando-as mais subjetivas e generalistas \u2014 o que, segundo cr\u00edticos, pode abrir caminho para o uso b\u00e9lico da tecnologia. No caso da OpenAI, as novas regras s\u00e3o mais espec\u00edficas, contextualizadas e pragm\u00e1ticas, especialmente no que diz respeito aos impactos na sa\u00fade e no bem-estar humano.<\/p>\n","protected":false},"author":1,"featured_media":34674,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_uf_show_specific_survey":0,"_uf_disable_surveys":false,"footnotes":""},"categories":[37],"tags":[],"class_list":["post-34673","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts\/34673","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/comments?post=34673"}],"version-history":[{"count":0,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts\/34673\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/media\/34674"}],"wp:attachment":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/media?parent=34673"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/categories?post=34673"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/tags?post=34673"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}