{"id":44560,"date":"2025-04-25T12:39:00","date_gmt":"2025-04-25T15:39:00","guid":{"rendered":"https:\/\/tiproject.online\/index.php\/2025\/04\/25\/apple-remove-apps-que-tiram-a-roupa-de-pessoas-apos-investigacao-da-bbc\/"},"modified":"2025-04-25T12:39:00","modified_gmt":"2025-04-25T15:39:00","slug":"apple-remove-apps-que-tiram-a-roupa-de-pessoas-apos-investigacao-da-bbc","status":"publish","type":"post","link":"https:\/\/tiproject.online\/index.php\/2025\/04\/25\/apple-remove-apps-que-tiram-a-roupa-de-pessoas-apos-investigacao-da-bbc\/","title":{"rendered":"Apple remove apps que &#039;tiram a roupa&#039; de pessoas ap\u00f3s investiga\u00e7\u00e3o da BBC"},"content":{"rendered":"<p><img  title=\"\"  alt=\"image001-10- Apple remove apps que &#039;tiram a roupa&#039; de pessoas ap\u00f3s investiga\u00e7\u00e3o da BBC\" decoding=\"async\" src=\"https:\/\/s2-g1.glbimg.com\/5P62tMn_AkM4SbW9rrY1ju87JmA=\/i.s3.glbimg.com\/v1\/AUTH_59edd422c0c84a879bd37670ae4f538a\/internal_photos\/bs\/2025\/m\/I\/PVLuAfTeWAL3HIqoNenQ\/image001-10-.png\" \/><br \/>     BBC exp\u00f4s grupo de aplicativos de &#8216;nudifica\u00e7\u00e3o&#8217; por IA sendo promovidos em an\u00fancios no TikTok e oferecidos nas lojas da Apple e Google. Imagens feitas por IA mostram fotos de mulheres sendo &#8220;despidas&#8221; em an\u00fancios de aplicativos<br \/>\nReprodu\u00e7\u00e3o\/ BBC<br \/>\nA Apple removeu um grupo de aplicativos da App Store ap\u00f3s uma investiga\u00e7\u00e3o da BBC revelar que eles estavam sendo anunciados no TikTok como ferramentas para criar deepfakes de &#8220;remo\u00e7\u00e3o de roupas&#8221; sem consentimento.<br \/>\nEsses aplicativos, conhecidos como &#8220;nudify&#8221; ou de &#8220;remo\u00e7\u00e3o de roupas&#8221;, usam intelig\u00eancia artificial para apagar digitalmente as roupas de pessoas em fotos, gerando imagens ou v\u00eddeos nus ou parcialmente nus.<br \/>\nNas p\u00e1ginas oficiais na App Store e nos sites dos desenvolvedores, os apps eram descritos como formas de &#8220;apimentar selfies&#8221;.<br \/>\nMas, nos an\u00fancios pagos veiculados no TikTok, as empresas promoviam os aplicativos como meios de criar imagens sexualizadas de mulheres sem a permiss\u00e3o delas.<br \/>\nAlguns an\u00fancios convidavam os usu\u00e1rios a baixar os apps para &#8220;ver as fotos mais quentes da sua paix\u00e3o&#8221;.<br \/>\nOutros diziam que os aplicativos &#8220;permitem tirar a roupa de qualquer pessoa&#8221;.<br \/>\nTamb\u00e9m havia propagandas que prometiam a capacidade de &#8220;colocar qualquer um de biqu\u00edni&#8221;.<br \/>\nN\u00e3o estamos revelando os nomes dos aplicativos para evitar dar visibilidade a eles \u2014 criar imagens sexualmente expl\u00edcitas de algu\u00e9m sem consentimento pode ser ilegal em diversos pa\u00edses, incluindo o Reino Unido.<br \/>\nLeia tamb\u00e9m:<br \/>\n&#8216;Minha filha n\u00e3o queria mais voltar para a escola&#8217;: o sofrimento de v\u00edtimas de nudes feitos com IA<br \/>\nOs chamados apps de &#8220;nudifica\u00e7\u00e3o&#8221; t\u00eam se tornado um problema crescente no mundo, com esc\u00e2ndalos de grande repercuss\u00e3o surgindo na Espanha, Coreia do Sul e Estados Unidos, especialmente envolvendo meninas em idade escolar.<br \/>\nEm alguns casos, sabe-se que v\u00edtimas foram chantageadas com imagens manipuladas por IA.<br \/>\nEmpresas de tecnologia t\u00eam um dever moral de restringir a prolifera\u00e7\u00e3o de aplicativos de &#8220;nudifica\u00e7\u00e3o&#8221; por deepfake, segundo o professor Arvind Narayanan, do Centro de Pol\u00edtica de Tecnologia da Informa\u00e7\u00e3o de Princeton.<br \/>\n&#8220;Deveria haver muito mais barreiras para impedir o acesso a essa tecnologia&#8221;, afirma ele, acrescentando que autoridades ao redor do mundo deveriam banir esses aplicativos das lojas virtuais e garantir que as redes sociais n\u00e3o possam &#8220;lucrar com an\u00fancios que os promovem&#8221;.<br \/>\nAlguns dos an\u00fancios no TikTok usavam fotos das atrizes de Game of Thrones Lena Headey e Maisie Williams para demonstrar como mulheres podem ser falsamente retratadas como se estivessem tirando a roupa at\u00e9 ficarem de roupa \u00edntima.<br \/>\nUma das empresas est\u00e1 usando atrizes de Game of Thrones para demonstrar seu recurso de &#8220;nudifica\u00e7\u00e3o&#8221; por intelig\u00eancia artificial.<br \/>\nReprodu\u00e7\u00e3o\/ BBC<br \/>\nA BBC identificou quatro desses aplicativos que pagam por an\u00fancios no TikTok \u2014 que agora removeu as publicidades.<br \/>\nNo entanto, v\u00eddeos semelhantes \u2014 aparentemente publicados por contas ligadas aos desenvolvedores dos apps \u2014 continuam na plataforma.<br \/>\nUm porta-voz do TikTok afirmou que os an\u00fancios violam as pol\u00edticas da rede, que pro\u00edbem conte\u00fados sexualmente sugestivos promovidos por meio de publicidade paga. A empresa, no entanto, n\u00e3o explicou como os an\u00fancios passaram pela modera\u00e7\u00e3o.<br \/>\nA Apple tamb\u00e9m respondeu \u00e0 reportagem da BBC removendo os aplicativos da App Store.<br \/>\nSegundo a empresa, tr\u00eas deles foram retirados &#8220;at\u00e9 que os desenvolvedores corrijam os problemas nos aplicativos&#8221;.<br \/>\nUm quarto app \u2014 especializado em criar v\u00eddeos de mulheres dan\u00e7ando seminuas a partir de fotos \u2014 &#8220;foi removido e teve sua conta de desenvolvedor encerrada&#8221;.<br \/>\nA Play Store do Google informou que est\u00e1 investigando os aplicativos.<br \/>\nO mais popular entre os apps investigados pela BBC j\u00e1 foi baixado mais de um milh\u00e3o de vezes, segundo dados da pr\u00f3pria Play Store. A Apple n\u00e3o divulga n\u00fameros de download.<br \/>\nO aplicativo n\u00e3o parece permitir a cria\u00e7\u00e3o de imagens totalmente nuas, mas torna muito f\u00e1cil gerar imagens sexualmente sugestivas de qualquer pessoa.<br \/>\nO desenvolvedor oferece &#8220;pacotes&#8221; prontos, com diferentes tipos de poses \u2014 incluindo cenas que retratam mulheres no ch\u00e3o com a boca aberta ou tomando banho.<br \/>\nNo TikTok, o app \u00e9 promovido como uma forma de &#8220;conseguir as fotos mais quentes da sua paix\u00e3o&#8221;.<br \/>\nEm resposta por e-mail, o criador do aplicativo afirmou que n\u00e3o teve a inten\u00e7\u00e3o de anunci\u00e1-lo como uma ferramenta de deepfake sem consentimento e disse que ir\u00e1 revisar suas pr\u00e1ticas.<br \/>\nSaiba tamb\u00e9m:<br \/>\nInstagram e Facebook mostram an\u00fancios pagos de apps que prometem tirar roupa de pessoas em fotos<br \/>\n&#8216;Casac\u00e3o branco&#8217;: papa Francisco foi v\u00edtima de imagens falsas com IA e aprovou documento pedindo regulamenta\u00e7\u00e3o cuidadosa da tecnologia<br \/>\nVeja tamb\u00e9m:<br \/>\n&#8216;IA do job&#8217;: brasileiros ganham dinheiro criando mulheres virtuais para conte\u00fado adulto<br \/>\n&#8216;Biscoiteiros&#8217;: Chefs conquistam a internet com sensualidade na cozinha<\/p>\n","protected":false},"excerpt":{"rendered":"<p>BBC exp\u00f4s grupo de aplicativos de &#8216;nudifica\u00e7\u00e3o&#8217; por IA sendo promovidos em an\u00fancios no TikTok e oferecidos nas lojas da Apple e Google. Imagens feitas por IA mostram fotos de mulheres sendo &#8220;despidas&#8221; em an\u00fancios de aplicativos Reprodu\u00e7\u00e3o\/ BBC A Apple removeu um grupo de aplicativos da App Store ap\u00f3s uma investiga\u00e7\u00e3o da BBC revelar que eles estavam sendo anunciados no TikTok como ferramentas para criar deepfakes de &#8220;remo\u00e7\u00e3o de roupas&#8221; sem consentimento. Esses aplicativos, conhecidos como &#8220;nudify&#8221; ou de &#8220;remo\u00e7\u00e3o de roupas&#8221;, usam intelig\u00eancia artificial para apagar digitalmente as roupas de pessoas em fotos, gerando imagens ou v\u00eddeos nus ou parcialmente nus. Nas p\u00e1ginas oficiais na App Store e nos sites dos desenvolvedores, os apps eram descritos como formas de &#8220;apimentar selfies&#8221;. Mas, nos an\u00fancios pagos veiculados no TikTok, as empresas promoviam os aplicativos como meios de criar imagens sexualizadas de mulheres sem a permiss\u00e3o delas. Alguns an\u00fancios convidavam os usu\u00e1rios a baixar os apps para &#8220;ver as fotos mais quentes da sua paix\u00e3o&#8221;. Outros diziam que os aplicativos &#8220;permitem tirar a roupa de qualquer pessoa&#8221;. Tamb\u00e9m havia propagandas que prometiam a capacidade de &#8220;colocar qualquer um de biqu\u00edni&#8221;. N\u00e3o estamos revelando os nomes dos aplicativos para evitar dar visibilidade a eles \u2014 criar imagens sexualmente expl\u00edcitas de algu\u00e9m sem consentimento pode ser ilegal em diversos pa\u00edses, incluindo o Reino Unido. Leia tamb\u00e9m: &#8216;Minha filha n\u00e3o queria mais voltar para a escola&#8217;: o sofrimento de v\u00edtimas de nudes feitos com IA Os chamados apps de &#8220;nudifica\u00e7\u00e3o&#8221; t\u00eam se tornado um problema crescente no mundo, com esc\u00e2ndalos de grande repercuss\u00e3o surgindo na Espanha, Coreia do Sul e Estados Unidos, especialmente envolvendo meninas em idade escolar. Em alguns casos, sabe-se que v\u00edtimas foram chantageadas com imagens manipuladas por IA. Empresas de tecnologia t\u00eam um dever moral de restringir a prolifera\u00e7\u00e3o de aplicativos de &#8220;nudifica\u00e7\u00e3o&#8221; por deepfake, segundo o professor Arvind Narayanan, do Centro de Pol\u00edtica de Tecnologia da Informa\u00e7\u00e3o de Princeton. &#8220;Deveria haver muito mais barreiras para impedir o acesso a essa tecnologia&#8221;, afirma ele, acrescentando que autoridades ao redor do mundo deveriam banir esses aplicativos das lojas virtuais e garantir que as redes sociais n\u00e3o possam &#8220;lucrar com an\u00fancios que os promovem&#8221;. Alguns dos an\u00fancios no TikTok usavam fotos das atrizes de Game of Thrones Lena Headey e Maisie Williams para demonstrar como mulheres podem ser falsamente retratadas como se estivessem tirando a roupa at\u00e9 ficarem de roupa \u00edntima. Uma das empresas est\u00e1 usando atrizes de Game of Thrones para demonstrar seu recurso de &#8220;nudifica\u00e7\u00e3o&#8221; por intelig\u00eancia artificial. Reprodu\u00e7\u00e3o\/ BBC A BBC identificou quatro desses aplicativos que pagam por an\u00fancios no TikTok \u2014 que agora removeu as publicidades. No entanto, v\u00eddeos semelhantes \u2014 aparentemente publicados por contas ligadas aos desenvolvedores dos apps \u2014 continuam na plataforma. Um porta-voz do TikTok afirmou que os an\u00fancios violam as pol\u00edticas da rede, que pro\u00edbem conte\u00fados sexualmente sugestivos promovidos por meio de publicidade paga. A empresa, no entanto, n\u00e3o explicou como os an\u00fancios passaram pela modera\u00e7\u00e3o. A Apple tamb\u00e9m respondeu \u00e0 reportagem da BBC removendo os aplicativos da App Store. Segundo a empresa, tr\u00eas deles foram retirados &#8220;at\u00e9 que os desenvolvedores corrijam os problemas nos aplicativos&#8221;. Um quarto app \u2014 especializado em criar v\u00eddeos de mulheres dan\u00e7ando seminuas a partir de fotos \u2014 &#8220;foi removido e teve sua conta de desenvolvedor encerrada&#8221;. A Play Store do Google informou que est\u00e1 investigando os aplicativos. O mais popular entre os apps investigados pela BBC j\u00e1 foi baixado mais de um milh\u00e3o de vezes, segundo dados da pr\u00f3pria Play Store. A Apple n\u00e3o divulga n\u00fameros de download. O aplicativo n\u00e3o parece permitir a cria\u00e7\u00e3o de imagens totalmente nuas, mas torna muito f\u00e1cil gerar imagens sexualmente sugestivas de qualquer pessoa. O desenvolvedor oferece &#8220;pacotes&#8221; prontos, com diferentes tipos de poses \u2014 incluindo cenas que retratam mulheres no ch\u00e3o com a boca aberta ou tomando banho. No TikTok, o app \u00e9 promovido como uma forma de &#8220;conseguir as fotos mais quentes da sua paix\u00e3o&#8221;. Em resposta por e-mail, o criador do aplicativo afirmou que n\u00e3o teve a inten\u00e7\u00e3o de anunci\u00e1-lo como uma ferramenta de deepfake sem consentimento e disse que ir\u00e1 revisar suas pr\u00e1ticas. Saiba tamb\u00e9m: Instagram e Facebook mostram an\u00fancios pagos de apps que prometem tirar roupa de pessoas em fotos &#8216;Casac\u00e3o branco&#8217;: papa Francisco foi v\u00edtima de imagens falsas com IA e aprovou documento pedindo regulamenta\u00e7\u00e3o cuidadosa da tecnologia Veja tamb\u00e9m: &#8216;IA do job&#8217;: brasileiros ganham dinheiro criando mulheres virtuais para conte\u00fado adulto &#8216;Biscoiteiros&#8217;: Chefs conquistam a internet com sensualidade na cozinha<\/p>\n","protected":false},"author":1,"featured_media":44561,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_uf_show_specific_survey":0,"_uf_disable_surveys":false,"footnotes":""},"categories":[37],"tags":[],"class_list":["post-44560","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts\/44560","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/comments?post=44560"}],"version-history":[{"count":0,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/posts\/44560\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/media\/44561"}],"wp:attachment":[{"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/media?parent=44560"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/categories?post=44560"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/tiproject.online\/index.php\/wp-json\/wp\/v2\/tags?post=44560"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}