DEEPNUDE X-Ray Application

DeepNude is an Offline automated software that transforms photos,creating fake Nude, Discover the full version of DeepNude for Windows, Android or Linux, start now to strip all the women of your choice

Download DeepNude

DeepNude Windows

Download Deepnude for Windows now


(Disable AddBlock to Download)


DeepNude APK Android

Download Deepnude Apk Android


(Disable AddBlock to Download)


DeepNude Linux

Download Deepnude for PC now

(Disable AddBlock to Download)

  • DeepNude

    100% Clean version

    Our version of DeepNude is 100% clean, no bug, no virus, fully functional

  • DeepNude

    Full Version - No Watermaks

    With this version no watermarks on the photos, they will be completely visible in good quality.

  • DeepNude

    DeepNude Women

    Our version of DeepNude is intended only for women's photos

DeepNude Application


DeepNude application was shut down due to the nature of the application. It was considered that the application could be used against any women to threaten or harass her by making the fake nude pictures of her. The idea of making the app could be unique but its usage is not much beneficial. The algorithm of the application could be used for something better in the future but the way it was made is not that good. Let's take a look at the application what it is, how it works and what were the controversies that made developers shut down the application.

What is DeepNude?

It is automated software that can transform the photos and create fake nude photos. DeepNude application works offline as well. It is an Artificial Intelligence powered App, which can remove the cloths of a dressed women in photo with a single click. However “ fake pornography ” of creating pornographic images of famous celebrities using artificial intelligence was popular from the end of 2017 to 2018, using artificial intelligence(AI) and neural networks in the same way, DeepNude removes only clothes from women's photos and makes it naked.

Where DeepNude is created?


Mr. Alberto is the developer of DeepNude. He started learning technologies two years ago in 2017, and developed the application DeepNude when he was at the University of California at Berkeley in 2017. To train DeepNude's algorithm he used over 10,000 nude photos of women. A computer programmer created an application that uses artificial intelligence to remove clothing from the images of women, making them look realistically nude. The software or application DeepNude, uses a photo of a clothed person and convert it into naked image of that same person.

Why DeepNude was created ?

Mr.Alberto developer of the application said he got inspiration to create DeepNude by advertisements for gadgets like X-Ray glasses that he saw while browsing magazines from the 1960s and 70s, which he had access to during his childhood. The logo of application DeepNude, is an admiration from those advertisements, a man wearing spiral glasses. “


Like everyone, I was fascinated by the idea that they could really exist and this memory remained,” he said. “About two years ago I discovered the potential of artificial intelligence and started studying the basics. When I found out that GAN networks were able to transform a daytime photo into a nighttime one, I realized that it would be possible to transform a dressed photo into a nude one. Eureka. I realized that x-ray glasses are possible! Driven by fun and enthusiasm for that discovery, I did my first tests, obtaining interesting results.”

Alberto said he continued to experiment out of “fun” and curiosity. “I’m not a voyeur, I’m a technology enthusiast,” he said. “Continuing to improve the algorithm. Recently, also due to previous failures and economic problems, I asked myself if I could have an economic return from this algorithm. That’s why I created DeepNude.”

Unprompted, he said he’s always asked himself whether the program should have ever been made: “Is this right? Can it hurt someone?” he asked. “I think that what you can do with DeepNude, you can do it very well with Photoshop,” he said, noting that DeepNude doesn’t transmit images itself, only creates them and allows the user to do what they will with the results. “

I also said to myself: the technology is ready,” he said. “So if someone has bad intentions, having DeepNude doesn’t change much… If I don’t do it, someone else will do it in a year.”

Functioning of DeepNude

Alberto says, 'The network is complicated, has a different task. One recognizes the clothes, one removes the clothes, and one guesses the position of the body parts when removing the clothes. 'One renders naked', and although this complex process takes time to convert, it will eventually speed up the process.


DeepNude will remove only the clothing from the photos of the dressed woman, converting it to a naked photo of the chest. DeepNude has a download version of the app and a demo version that you can try out online. It uses the image of woman with cloths and converts the image to without cloths woman. Photos with fewer cloths like bikini or swim suits are easier to convert and after conversion the nude fake image almost looks like the original image. It removes clothes makes naked breasts, and works only on images of women. When users tried using an image of a man, it replaced his pants with women body parts. DeepNude app has different result on images of fully clothed women; it appears to work best on images where the person is already showing a lot of skin.

 A law professor at Boston University and author of the book "Hate Crimes in Cyberspace," Danielle Citronin an interview on CNN Business said , "Digital tools, once they're in the wild, are cheap and easy to replicate, and cheap and easy to use, increasingly,"

Controversy created by DeepNude

DeepNude used artificial intelligence to create fake nude images of women. The application that uses the controversial deepfake technology was shut down not even a day after it became popular. The team behind this application said that they considerably underestimated the vast interest in this passion project and “the chances that people will misuse it is too high.” The DeepNude application will no longer be on sale and later installments of the application will not be issued. The developer also published a warning against sharing the application online by claiming it would go against DeepNude’s terms of service. Still, they did recognize that some copies would go out.


Reported by Motherboard website for IT, this app was available on both Linux and Windows OS.  It use artificial intelligence to generate nudes of people and it only worked to create naked photos of women. The free version which was available on website of DeepNude placed a large watermark across the photo that means that it is a fake. The paid version had the same message but was smaller and placed in the corner. These watermarks could be easily cropped out or removed with the use for Photoshop or similar software like photo editors. The application is said to have been on sale for the last few months and the team behind it claim “honestly, the app is not that great’ at creating nudes. No matter what the developers said about the app, it did gain a lot of attraction and created widespread outrage regarding its capabilities. Making fake images was not new but DeepNude made it easy for everyone to transform a simple picture into nude with just a single click or it is appropriate to say that DeepNude was simple to use and easy to get the application, anyone can get the application from the internet. The outrage has been justified as DeepNude’s photos are used to blackmail women and have already used to edit women’s likeness in porn videos without consent. On which, there’s pretty much nothing women can do after it has already been spread online.

Alberto, the creator of the app stated that he felt that someone else would soon make the app if he did not do it first. He states, “The technology is ready”. He went on to state that the DeepNude team would quit the app for sure if the app is going to be misused.

A report state, “DeepNude’s team ends their message announcing the shutdown by saying “the world is not yet ready for DeepNude,” as though there will be a time in the future when users become sensible the software can be used appropriately. But deepfakes will only become easier to make and harder to detect, and ultimately, knowing whether something is real or fake isn’t the problem. These apps allow people’s images to be quickly and easily misused, and for the time being, there are few if any protections in place to prevent that from happening.


Katersin Boden, CEO of Badass, revenge pornographic organization said 'This is a very frightening thing. Anyone can be a victim of revenge pornography, even if they have never taken naked pictures,' said. Technology should not be released to the public.

A technology like DeepNude is a violation of sexual privacy,' said Daniele Citron, who works for a law school at the University of Maryland. In addition, 'The real genial part is not shown, but others will think that you are naked (look at the naked photos made by DeepNude). Damage to DeepFake They said to me, 'Thousands of people saw their nakedness and felt that their bodies were no longer their own.'

To run a test, Motherboard converted more than 10 celebrity celebrities to naked, and although the result differs depending on the photo, it is said that the photo of a woman in a bikini looking at the camera has been converted particularly well to naked. According to Motherboard, DeepNude's algorithm 'completely compensates for the position and shadow of the nipple from the angle of the chest under the clothes.' In addition, Motherboard has published photos of Taylor Swift , Tyra Banks , Natalie Portman , Galle Gadot , Kim Kardashian, etc. as examples of successful conversion to nakedness.

Consequences and Dangers of the DeepNude use


The scariest thing about DeepNude may not be the software itself: It’s our unwillingness to see DeepNude, and other faked nude images, as the technological vanguard of a larger campaign of harassment and abuse of women. Forcibly undressing women or circulating nudes without consent are broadly recognized as abhorrent, even criminal acts, but the law is less evolved on this kind of emerging A.I. technology. “The biggest difference with deepfakes [is] about how the laws deal with them,” says Carrie Goldberg, a Brooklyn-based lawyer whose firm specializes in providing support to the victims of revenge porn. “Most current revenge porn laws only criminalize the distribution of real images, not fake ones.” Laws that focus on copyright and ownership of one’s image provide limited support to people whose harassment comes courtesy of an entirely manufactured image. "If 500,000 people use it, the probability that people misuse it will be high." The world is not yet ready for DeepNude. The app has been on sale for months, while a Windows and Linux product was launched on Sunday. A free version would place a large watermark across the images noting that they were fake, while a US$50 version placed a smaller watermark in a corner, where it could be cropped out. It came to public attention on Thursday, after a story by Motherboard This triggered a heap of interest and crashed the site.


The software can no longer be downloaded from the original website, which is down, and those who already have it say it no longer works. But pirated versions may still be available to download from other sources. DeepNude has tweeted: "Surely some copies of DeepNude will be shared on the web, but we don't want to be the ones who sell it." Placing a person's face onto a nude body and then showing this to others is image-based abuse. Since May last year, it's been illegal in New South Wales - punishable by up to three years jail and an $11,000 fine. South Australia, the ACT and WA have followed suit, while in Victoria it could come under the criminal offence of image-based sexual abuse. Many jurisdictions also have laws that ban the use of a carrier service to menace or harass, which can be used to prosecute cases of revenge porn. In August last year, the Commonwealth passed federal revenge porn legislation, introducing civil penalties of up to $105,000 for individuals and up to $525,000 for corporations if they do not remove an image when requested to by the eSafety Commissioner. However, despite these laws, Australian victims of image-based abuse have struggled to get overseas offenders to take their photos offline. This makes the specter of simple-to-make 'deep nudes' even more scary. Deep fake technology is improving rapidly, allowing everyday users to deploy the type of high-tech computer fakery we see in the movies. In December 2017, a Reddit user was outer using AI to swap the faces of actors in porn videos with the faces of well-known celebrities. It's been stopped for now, but DeepNude is a sign of what's to come.

Application DeepNude


L'application DeepNude a été fermée en raison de la nature de l'application. Il a été considéré que l'application pouvait être utilisée contre toute femme pour la menacer ou la harceler en faisant de fausses photos nues d'elle. L'idée de créer l'application pourrait être unique, mais son utilisation n'est pas très bénéfique. L'algorithme de l'application pourrait être utilisé pour quelque chose de mieux à l'avenir, mais la façon dont il a été fait n'est pas si bonne. Jetons un coup d'œil à l'application, à son fonctionnement et aux controverses qui ont poussé les développeurs à fermer l'application.

Qu'est-ce que DeepNude?

C'est un logiciel automatisé qui peut transformer les photos et créer de fausses photos nues. L'application DeepNude fonctionne également hors ligne. Il s'agit d'une application alimentée par l'intelligence artificielle, qui peut retirer les tissus d'une femme habillée en photo en un seul clic. Cependant, la «fausse pornographie» de création d'images pornographiques de célébrités célèbres utilisant l'intelligence artificielle était populaire de la fin de 2017 à 2018, en utilisant l'intelligence artificielle (AI) et les réseaux de neurones de la même manière, DeepNude supprime uniquement les vêtements des photos des femmes et les rend nus .

Où DeepNude est créé?



M. Alberto est le développeur de DeepNude. Il a commencé à apprendre les technologies il y a deux ans en 2017 et a développé l'application DeepNude lorsqu'il était à l'Université de Californie à Berkeley en 2017. Pour former l'algorithme de DeepNude, il a utilisé plus de 10 000 photos de femmes nues. Un programmeur informatique a créé une application qui utilise l'intelligence artificielle pour retirer les vêtements des images des femmes, leur donnant un aspect réaliste. Le logiciel ou l'application DeepNude utilise une photo d'une personne vêtue et la convertit en image nue de cette même personne.

Pourquoi DeepNude a été créé?

M. Alberto, développeur de l'application, a déclaré avoir trouvé l'inspiration pour créer DeepNude par des publicités pour des gadgets comme des lunettes à rayons X qu'il a vus en parcourant des magazines des années 1960 et 70, auxquels il avait accès pendant son enfance. Le logo de l'application DeepNude, est une admiration de ces publicités, un homme portant des lunettes spirales.



Comme tout le monde, j'étais fasciné par l'idée qu'ils pouvaient vraiment exister et ce souvenir est resté », a-t-il déclaré. «Il y a environ deux ans, j'ai découvert le potentiel de l'intelligence artificielle et j'ai commencé à étudier les bases. Quand j'ai découvert que les réseaux GAN étaient capables de transformer une photo de jour en photo de nuit, j'ai réalisé qu'il serait possible de transformer une photo habillée en photo nue. Eureka. J'ai réalisé que les lunettes à rayons X sont possibles! Poussé par le plaisir et l'enthousiasme pour cette découverte, j'ai fait mes premiers tests, obtenant des résultats intéressants. »

Alberto a déclaré qu'il continuait d'expérimenter par «plaisir» et par curiosité. "Je ne suis pas un voyeur, je suis un passionné de technologie", a-t-il déclaré. «Continuer à améliorer l'algorithme. Récemment, également en raison d'échecs précédents et de problèmes économiques, je me suis demandé si je pouvais obtenir un retour économique de cet algorithme. C’est pourquoi j’ai créé DeepNude. " Imperturbable, il a dit qu'il s'était toujours demandé si le programme aurait jamais dû être fait: «Est-ce vrai? Cela peut-il blesser quelqu'un? », A-t-il demandé. "Je pense que ce que vous pouvez faire avec DeepNude, vous pouvez le faire très bien avec Photoshop", a-t-il déclaré, notant que DeepNude ne transmet pas les images lui-même, les crée uniquement et permet à l'utilisateur de faire ce qu'il veut avec les résultats. " Je me suis aussi dit: la technologie est prête », a-t-il déclaré. "Donc, si quelqu'un a de mauvaises intentions, avoir DeepNude ne change pas grand-chose ... Si je ne le fais pas, quelqu'un d'autre le fera dans un an."

Fonctionnement de DeepNude

Alberto dit: «Le réseau est compliqué, a une tâche différente. On reconnaît les vêtements, on enlève les vêtements, et on devine la position des parties du corps lors du retrait des vêtements. «On se rend nu», et bien que ce processus complexe prenne du temps à convertir, il finira par accélérer le processus.



DeepNude supprimera uniquement les vêtements des photos de la femme habillée, les convertissant en une photo nue de la poitrine. DeepNude a une version téléchargeable de l'application et une version de démonstration que vous pouvez essayer en ligne. Il utilise l'image d'une femme avec des chiffons et convertit l'image sans femme en chiffons. Les photos avec moins de tissus comme le bikini ou les maillots de bain sont plus faciles à convertir et après la conversion, la fausse image nue ressemble presque à l'image d'origine. Il enlève les vêtements rend les seins nus, et ne fonctionne que sur les images de femmes. Lorsque les utilisateurs ont essayé d'utiliser une image d'un homme, il a remplacé son pantalon par des parties du corps de femmes. L'application DeepNude a un résultat différent sur les images de femmes entièrement vêtues; il semble que cela fonctionne mieux sur des images où la personne montre déjà beaucoup de peau. Un professeur de droit à l'Université de Boston et auteur du livre "Hate Crimes in Cyberspace", Danielle Citronin une interview sur CNN Business a déclaré: "Les outils numériques, une fois qu'ils sont dans la nature, sont bon marché et faciles à reproduire, et bon marché et faciles d'utiliser, de plus en plus

Controverse créée par DeepNude

DeepNude a utilisé l'intelligence artificielle pour créer de fausses images de femmes nues. L'application qui utilise la technologie controversée du deepfake a été fermée pas même un jour après sa popularité. L'équipe derrière cette application a déclaré qu'elle avait considérablement sous-estimé le grand intérêt pour ce projet passionné et que «les chances que les gens en abusent soient trop élevées.» L'application DeepNude ne sera plus en vente et les versements ultérieurs de l'application ne seront pas émis . Le développeur a également publié un avertissement contre le partage de l'application en ligne en affirmant que cela irait à l'encontre des conditions d'utilisation de DeepNude. Pourtant, ils ont reconnu que certaines copies sortiraient.



Signalée par le site Web de la carte mère pour l'informatique, cette application était disponible sur Linux et Windows OS. Il utilise l'intelligence artificielle pour générer des nus de personnes et n'a fonctionné que pour créer des photos nues de femmes. La version gratuite qui était disponible sur le site Web de DeepNude a placé un grand filigrane sur la photo, ce qui signifie qu'il s'agit d'un faux. La version payante avait le même message mais était plus petite et placée dans le coin. Ces filigranes pourraient être facilement rognés ou supprimés avec l'utilisation de Photoshop ou de logiciels similaires comme les éditeurs de photos. L'application serait en vente depuis quelques mois et l'équipe derrière elle affirme "honnêtement, l'application n'est pas géniale" pour créer des nus. Peu importe ce que les développeurs ont dit à propos de l'application, elle a gagné beaucoup d'attraction et a suscité une indignation généralisée concernant ses capacités. Faire de fausses images n'était pas nouveau, mais DeepNude a permis à tout le monde de transformer facilement une simple image en nu en un seul clic ou il convient de dire que DeepNude était simple à utiliser et facile à obtenir, n'importe qui peut obtenir l'application à partir de l'Internet. L'indignation a été justifiée car les photos de DeepNude sont utilisées pour faire chanter les femmes et ont déjà été utilisées pour modifier la ressemblance des femmes dans des vidéos porno sans consentement. Sur quoi, il n'y a pratiquement rien que les femmes puissent faire après qu'il a déjà été diffusé en ligne. Alberto, le créateur de l'application, a déclaré qu'il pensait que quelqu'un d'autre ferait bientôt l'application s'il ne le faisait pas en premier. Il déclare: «La technologie est prête». Il a ensuite déclaré que l'équipe DeepNude quitterait l'application avec certitude si l'application allait être utilisée à mauvais escient.

Un rapport indique que «l'équipe de DeepNude termine son message annonçant l'arrêt en disant que« le monde n'est pas encore prêt pour DeepNude », comme s'il y aurait un moment dans le futur où les utilisateurs deviendraient sensibles que le logiciel pourrait être utilisé de manière appropriée. Mais les deepfakes deviendront seulement plus faciles à fabriquer et plus difficiles à détecter, et en fin de compte, savoir si quelque chose est réel ou faux n'est pas le problème. Ces applications permettent aux images de personnes d'être utilisées rapidement et facilement et, pour le moment, il existe peu ou pas de protections en place pour empêcher que cela se produise.



Katersin Boden, PDG de Badass, organisation pornographique de vengeance, a déclaré: «C'est une chose très effrayante. N'importe qui peut être victime de pornographie de vengeance, même s'il n'a jamais pris de photos nues », a déclaré. La technologie ne doit pas être rendue publique. Une technologie comme DeepNude est une violation de la vie privée sexuelle '', a déclaré Daniele Citron, qui travaille pour une faculté de droit de l'Université du Maryland. De plus, 'La vraie partie géniale n'est pas montrée, mais d'autres penseront que vous êtes nu (regardez les photos nues prises par DeepNude). Dommages à DeepFake Ils m'ont dit: «Des milliers de personnes ont vu leur nudité et ont senti que leur corps n'était plus le leur. Pour exécuter un test, Motherboard a converti plus de 10 célébrités en nues, et bien que le résultat diffère selon la photo, il est dit que la photo d'une femme en bikini regardant la caméra a été particulièrement bien convertie en nue. Selon Motherboard, l'algorithme de DeepNude "compense complètement la position et l'ombre du mamelon sous l'angle de la poitrine sous les vêtements". De plus, Motherboard a publié des photos de Taylor Swift, Tyra Banks, Natalie Portman, Galle Gadot, Kim Kardashian, etc. comme exemples de conversion réussie à la nudité.

Conséquences et dangers de l'utilisation de DeepNude



La chose la plus effrayante à propos de DeepNude n'est peut-être pas le logiciel lui-même: c'est notre réticence à voir DeepNude, et d'autres images nues truquées, comme l'avant-garde technologique d'une plus grande campagne de harcèlement et de maltraitance des femmes. Déshabiller de force des femmes ou faire circuler des nus sans consentement sont largement reconnus comme des actes odieux, voire criminels, mais la loi est moins évoluée sur ce type d'émergence de l'IA. La technologie. «La plus grande différence avec les deepfakes [concerne] la manière dont les lois les traitent», explique Carrie Goldberg, une avocate de Brooklyn dont le cabinet est spécialisé dans l'assistance aux victimes de la vengeance pornographique. «La plupart des lois actuelles sur la pornographie vengeance ne criminalisent que la distribution d'images réelles, pas de fausses images.» Les lois qui se concentrent sur le droit d'auteur et la propriété de son image fournissent un soutien limité aux personnes dont le harcèlement vient de la courtoisie d'une image entièrement fabriquée. "Si 500 000 personnes l'utilisent, la probabilité que les gens en abusent sera élevée." Le monde n'est pas encore prêt pour DeepNude. L'application est en vente depuis des mois, tandis qu'un produit Windows et Linux a été lancé dimanche. Une version gratuite placerait un grand filigrane sur les images en notant qu'elles étaient fausses, tandis qu'une version de 50 $ US plaçait un petit filigrane dans un coin, où il pouvait être découpé. Il a été porté à l'attention du public jeudi, après une histoire de Motherboard. Cela a déclenché un grand intérêt et a écrasé le site.



Le logiciel ne peut plus être téléchargé à partir du site Web d'origine, qui est en panne, et ceux qui l'ont déjà disent qu'il ne fonctionne plus. Mais des versions piratées peuvent toujours être disponibles au téléchargement à partir d'autres sources. DeepNude a tweeté: "Certes, certaines copies de DeepNude seront partagées sur le Web, mais nous ne voulons pas être ceux qui le vendent." Placer le visage d'une personne sur un corps nu puis le montrer aux autres est un abus basé sur l'image. Depuis mai de l'année dernière, il est illégal en Nouvelle-Galles du Sud - passible d'une peine pouvant aller jusqu'à trois ans de prison et d'une amende de 11 000 $. L'Australie-Méridionale, l'ACT et WA ont emboîté le pas, tandis qu'à Victoria, elles pourraient relever de l'infraction pénale de violence sexuelle fondée sur l'image. De nombreuses juridictions ont également des lois qui interdisent l'utilisation d'un service de transporteur pour menacer ou harceler, qui peut être utilisé pour poursuivre des cas de vengeance pornographique. En août de l'année dernière, le Commonwealth a adopté une loi fédérale sur la pornographie vengeance, introduisant des sanctions civiles pouvant aller jusqu'à 105 000 $ pour les particuliers et jusqu'à 525 000 $ pour les sociétés si elles ne suppriment pas une image à la demande du commissaire eSafety. Cependant, malgré ces lois, les victimes australiennes de maltraitance basée sur l'image ont du mal à convaincre les délinquants étrangers de prendre leurs photos hors ligne. Cela rend le spectre des «nus profonds» simples à faire encore plus effrayant. La technologie de faux profond s'améliore rapidement, permettant aux utilisateurs de tous les jours de déployer le type de faux informatique de haute technologie que nous voyons dans les films. En décembre 2017, un utilisateur de Reddit utilisait l'IA pour échanger les visages d'acteurs dans des vidéos porno avec les visages de célébrités bien connues. Il a été arrêté pour l'instant, mais DeepNude est un signe de ce qui va arriver.



Die DeepNude-Anwendung wurde aufgrund der Art der Anwendung beendet. Es wurde angenommen, dass die Anwendung gegen Frauen verwendet werden könnte, um sie zu bedrohen oder zu belästigen, indem gefälschte Nacktbilder von ihr gemacht werden. Die Idee, die App zu erstellen, könnte einzigartig sein, aber ihre Verwendung ist nicht sehr vorteilhaft. Der Algorithmus der Anwendung könnte für etwas Besseres in der Zukunft verwendet werden, aber die Art und Weise, wie er erstellt wurde, ist nicht so gut. Werfen wir einen Blick auf die Anwendung, was sie ist, wie sie funktioniert und welche Kontroversen die Entwickler veranlassten, die Anwendung herunterzufahren.

Was ist DeepNude?

Es ist eine automatisierte Software, die Fotos transformieren und gefälschte Aktfotos erstellen kann. DeepNude-Anwendung funktioniert auch offline. Es handelt sich um eine App mit künstlicher Intelligenz, mit der die Kleidung einer angezogenen Frau auf dem Foto mit einem einzigen Klick entfernt werden kann. Allerdings war von Ende 2017 bis 2018 die „gefälschte Pornografie“ von pornografischen Bildern berühmter Prominenter mit künstlicher Intelligenz (KI) und neuronalen Netzen beliebt. DeepNude entfernt nur Kleidung von Frauenfotos und macht sie nackt .

Wo wird DeepNude erstellt?



Herr Alberto ist der Entwickler von DeepNude. Er begann vor zwei Jahren mit dem Lernen von Technologien im Jahr 2017 und entwickelte die Anwendung DeepNude, als er 2017 an der University of California in Berkeley war. Um den Algorithmus von DeepNude zu trainieren, verwendete er über 10.000 Aktfotos von Frauen. Ein Computerprogrammierer hat eine Anwendung erstellt, die mithilfe künstlicher Intelligenz Kleidung von den Bildern von Frauen entfernt und sie so realistisch nackt erscheinen lässt. Die Software oder Anwendung DeepNude verwendet ein Foto einer gekleideten Person und wandelt es in ein nacktes Bild derselben Person um.

Warum wurde DeepNude erstellt?

Mr. Alberto, Entwickler der Anwendung, gab an, er habe sich durch Werbung für Gadgets wie Röntgenbrillen, die er beim Durchstöbern von Magazinen aus den 1960er und 70er Jahren gesehen hatte, zu denen er in seiner Kindheit Zugang hatte, zu DeepNude inspirieren lassen. Das Logo der Anwendung DeepNude ist eine Bewunderung für diese Werbung, einen Mann, der eine Spiralbrille trägt.



Wie jeder andere war ich fasziniert von der Idee, dass sie wirklich existieren könnten, und diese Erinnerung blieb bestehen “, sagte er. „Vor ungefähr zwei Jahren habe ich das Potenzial der künstlichen Intelligenz entdeckt und angefangen, die Grundlagen zu studieren. Als ich herausfand, dass GAN-Netzwerke ein Tagesfoto in ein Nachtfoto verwandeln konnten, wurde mir klar, dass es möglich sein würde, ein angezogenes Foto in ein nacktes zu verwandeln. Eureka. Mir ist klar geworden, dass Röntgenbrillen möglich sind! Angetrieben von Spaß und Begeisterung für diese Entdeckung habe ich meine ersten Tests durchgeführt und dabei interessante Ergebnisse erzielt.

Alberto sagte, er experimentiere weiter aus Spaß und Neugier. "Ich bin kein Voyeur, ich bin ein Technologie-Enthusiast", sagte er. „Den Algorithmus weiter verbessern. Kürzlich habe ich mich auch aufgrund früherer Ausfälle und wirtschaftlicher Probleme gefragt, ob ich einen wirtschaftlichen Nutzen aus diesem Algorithmus ziehen könnte. Deshalb habe ich DeepNude erstellt.


Unaufgefordert sagte er, er habe sich immer gefragt, ob das Programm jemals hätte gemacht werden sollen: „Stimmt das? Kann es jemanden verletzen? “, Fragte er. "Ich denke, was Sie mit DeepNude tun können, können Sie mit Photoshop sehr gut tun", sagte er und stellte fest, dass DeepNude keine Bilder selbst überträgt, sondern sie nur erstellt und dem Benutzer ermöglicht, mit den Ergebnissen das zu tun, was er will. “ Ich sagte mir auch: Die Technologie ist fertig “, sagte er. "Wenn jemand schlechte Absichten hat, ändert DeepNude nicht viel ... Wenn ich es nicht tue, wird es in einem Jahr jemand anderes tun.

Funktionsweise von DeepNude

Alberto sagt: 'Das Netzwerk ist kompliziert, hat eine andere Aufgabe. Man erkennt die Kleidung, man zieht die Kleidung aus und man errät die Position der Körperteile, wenn man die Kleidung auszieht. "Man macht nackt", und obwohl die Konvertierung dieses komplexen Prozesses einige Zeit in Anspruch nimmt, wird er den Prozess letztendlich beschleunigen.



DeepNude entfernt nur die Kleidung von den Fotos der angezogenen Frau und wandelt sie in ein nacktes Foto der Brust um. DeepNude hat eine Download-Version der App und eine Demo-Version, die Sie online ausprobieren können. Es verwendet das Bild der Frau mit Tüchern und wandelt das Bild in Frau ohne Tücher um. Fotos mit weniger Kleidungsstücken wie Bikini oder Badeanzügen lassen sich leichter konvertieren, und nach der Konvertierung sieht das nackte, gefälschte Bild fast wie das Originalbild aus. Es entfernt Kleidung, macht nackte Brüste und funktioniert nur auf Bildern von Frauen. Wenn Benutzer versuchten, ein Bild eines Mannes zu verwenden, ersetzte es seine Hose durch weibliche Körperteile. DeepNude App hat unterschiedliche Ergebnisse auf Bildern von voll bekleideten Frauen; es scheint am besten auf Bildern zu funktionieren, bei denen die Person bereits viel Haut zeigt. Danielle Citronin, Professorin für Rechtswissenschaften an der Universität Boston und Autorin des Buches "Hate Crimes in Cyberspace" (Hassverbrechen im Cyberspace), sagte in einem Interview über CNN Business: "Digitale Werkzeuge sind billig und einfach zu replizieren sowie billig und einfach in zunehmendem Maße zu verwenden,

Kontroverse erstellt von DeepNude

DeepNude verwendete künstliche Intelligenz, um gefälschte Aktbilder von Frauen zu erstellen. Die Anwendung, die die umstrittene Deepfake-Technologie verwendet, wurde nicht einmal einen Tag nach ihrer Bekanntheit beendet. Das Team, das hinter dieser Anwendung steckt, gab an, das große Interesse an diesem Leidenschaftsprojekt und die Wahrscheinlichkeit, dass Menschen es missbrauchen, erheblich unterschätzt zu haben. Die DeepNude-Anwendung wird nicht mehr zum Verkauf angeboten und spätere Raten der Anwendung werden nicht mehr ausgegeben . Der Entwickler veröffentlichte auch eine Warnung vor der Online-Weitergabe der Anwendung, indem er behauptete, dies würde gegen die Nutzungsbedingungen von DeepNude verstoßen. Dennoch erkannten sie, dass einige Kopien erlöschen würden.



Diese App wurde von der Motherboard-Website für IT gemeldet und war sowohl unter Linux als auch unter Windows verfügbar. Es verwendet künstliche Intelligenz, um Aktbilder von Menschen zu erzeugen und es hat nur funktioniert, um nackte Fotos von Frauen zu erstellen. Die kostenlose Version, die auf der Website von DeepNude verfügbar war, platzierte ein großes Wasserzeichen über dem Foto, was bedeutet, dass es sich um eine Fälschung handelt. Die kostenpflichtige Version hatte die gleiche Nachricht, war aber kleiner und in der Ecke platziert. Diese Wasserzeichen können mit Photoshop oder ähnlichen Programmen wie Bildbearbeitungsprogrammen leicht entfernt oder entfernt werden. Die Anwendung soll seit einigen Monaten im Handel erhältlich sein, und das dahinter stehende Team behauptet, "ehrlich gesagt, die App ist nicht so großartig", wenn es darum geht, Akte zu erstellen.

Egal, was die Entwickler über die App sagten, sie gewann viel Anziehungskraft und verursachte weitreichende Empörung über ihre Fähigkeiten. Das Erstellen gefälschter Bilder war nicht neu, aber DeepNude machte es jedem leicht, ein einfaches Bild mit nur einem Klick in Akt umzuwandeln, oder es ist angebracht zu sagen, dass DeepNude einfach zu verwenden und leicht zu bekommen ist, von dem jeder die Anwendung erhalten kann das Internet. Die Empörung wurde gerechtfertigt, da DeepNudes Fotos zur Erpressung von Frauen verwendet werden und bereits dazu verwendet wurden, die Frauenähnlichkeit in Pornovideos ohne Zustimmung zu bearbeiten. Auf dem gibt es so ziemlich nichts, was Frauen tun können, nachdem es bereits online verbreitet wurde. Alberto, der Ersteller der App, gab an, dass er das Gefühl habe, dass jemand anderes die App bald erstellen würde, wenn er es nicht zuerst tun würde. Er sagt: "Die Technologie ist fertig." Er fuhr fort, dass das DeepNude-Team die App mit Sicherheit beenden würde, wenn die App missbraucht würde. In einem Bericht heißt es: "Das DeepNude-Team beendet seine Nachricht über das Herunterfahren, indem es sagt," die Welt ist noch nicht bereit für DeepNude ", als würde es in Zukunft eine Zeit geben, in der die Benutzer vernünftig werden, die Software angemessen zu verwenden. Aber Deepfakes werden nur noch einfacher zu machen und schwerer zu erkennen sein, und letztendlich ist es nicht das Problem, zu wissen, ob etwas echt oder falsch ist. Mit diesen Apps können die Bilder von Personen schnell und einfach missbraucht werden. Derzeit sind nur wenige oder gar keine Schutzmaßnahmen vorhanden, um dies zu verhindern.



Katersin Boden, CEO von Badass, einer rachsüchtigen pornografischen Organisation, sagte: „Das ist eine sehr beängstigende Sache. Jeder kann Opfer von Rachepornografie werden, auch wenn er noch nie nackte Bilder gemacht hat. Technologie sollte nicht für die Öffentlichkeit freigegeben werden. Eine Technologie wie DeepNude ist eine Verletzung der sexuellen Privatsphäre “, sagte Daniele Citron, die an einer juristischen Fakultät der University of Maryland arbeitet. Darüber hinaus wird der echte geniale Teil nicht gezeigt, aber andere werden denken, dass Sie nackt sind (sehen Sie sich die nackten Fotos von DeepNude an). Schäden an DeepFake Sie sagten zu mir: "Tausende von Menschen sahen ihre Nacktheit und fühlten, dass ihre Körper nicht mehr ihre eigenen waren." Um einen Test durchzuführen, hat Motherboard mehr als 10 Prominente in nackte umgewandelt, und obwohl das Ergebnis je nach Foto unterschiedlich ist, soll das Foto einer Frau im Bikini, die in die Kamera schaut, besonders gut in nackte umgewandelt worden sein. Laut Motherboard gleicht der Algorithmus von DeepNude "die Position und den Schatten der Brustwarze aus dem Winkel der Brust unter der Kleidung vollständig aus". Außerdem hat Motherboard Fotos von Taylor Swift, Tyra Banks, Natalie Portman, Galle Gadot, Kim Kardashian usw. als Beispiele für die erfolgreiche Umwandlung in Nacktheit veröffentlicht.

Folgen und Gefahren der DeepNude-Nutzung


Das Schrecklichste an DeepNude ist möglicherweise nicht die Software selbst: Es ist unsere Abneigung, DeepNude und andere gefälschte Aktbilder als technologische Avantgarde einer größeren Kampagne der Belästigung und des Missbrauchs von Frauen zu sehen. Das gewaltsame Entkleiden von Frauen oder das Verbreiten von Akten ohne Zustimmung wird allgemein als abscheuliche, sogar kriminelle Handlung anerkannt, aber das Gesetz über diese Art von aufkommender A.I. Technologie. "Der größte Unterschied zu Deepfakes besteht darin, wie die Gesetze mit ihnen umgehen", sagt Carrie Goldberg, eine Anwältin aus Brooklyn, deren Kanzlei auf Support spezialisiert ist


an die Opfer von Racheporno. "Die meisten aktuellen Gesetze für Rachepornos kriminalisieren nur die Verbreitung von echten Bildern, nicht von gefälschten." Gesetze, die sich auf das Urheberrecht und das Eigentum an einem Bild konzentrieren, bieten Menschen nur begrenzte Unterstützung, deren Belästigung durch ein vollständig hergestelltes Bild verursacht wird. "Wenn 500.000 Menschen es benutzen, ist die Wahrscheinlichkeit, dass Menschen es missbrauchen, hoch." Die Welt ist noch nicht bereit für DeepNude. Die App ist seit Monaten im Handel, und am Sonntag wurde ein Windows- und Linux-Produkt auf den Markt gebracht. Eine kostenlose Version würde ein großes Wasserzeichen über den Bildern platzieren und darauf hinweisen, dass sie gefälscht sind, während eine 50-US-Dollar-Version ein kleineres Wasserzeichen in einer Ecke platzierte, in der es ausgeschnitten werden könnte. Es wurde am Donnerstag nach einer Geschichte von Motherboard öffentlich bekannt. Dies löste eine Menge Interesse aus und stürzte die Seite ab.


Die Software kann nicht mehr von der Original-Website heruntergeladen werden, die nicht verfügbar ist, und diejenigen, die sie bereits haben, sagen, dass sie nicht mehr funktioniert. Raubkopien können jedoch möglicherweise noch von anderen Quellen heruntergeladen werden. DeepNude hat getwittert: "Sicherlich werden einige Exemplare von DeepNude im Internet geteilt, aber wir wollen nicht diejenigen sein, die es verkaufen." Das Gesicht einer Person auf einen nackten Körper zu legen und dies dann anderen zu zeigen, ist bildbasierter Missbrauch. Seit Mai letzten Jahres ist es in New South Wales illegal - mit bis zu drei Jahren Gefängnis und einer Geldstrafe von 11.000 US-Dollar bestraft. Südaustralien, das ACT und WA sind diesem Beispiel gefolgt, während es in Victoria unter die Straftat des bildbasierten sexuellen Missbrauchs geraten könnte. In vielen Gerichtsbarkeiten gibt es auch Gesetze, die die Nutzung eines Trägerdienstes als Bedrohung oder Belästigung verbieten und zur Verfolgung von Fällen von Rachepornografie eingesetzt werden können. Im August letzten Jahres verabschiedete das Commonwealth ein Bundesgesetz über Rachepornografie, das zivilrechtliche Strafen von bis zu 105.000 USD für Einzelpersonen und bis zu 525.000 USD für Unternehmen vorsah, wenn diese auf Aufforderung des eSafety-Beauftragten kein Bild entfernen. Trotz dieser Gesetze haben australische Opfer von bildbasiertem Missbrauch Mühe, ausländische Straftäter dazu zu bewegen, ihre Fotos offline zu schalten. Dies macht das Gespenst von einfach zu machenden "tiefen Akten" noch gruseliger. Die Deep Fake-Technologie verbessert sich rasant und ermöglicht es alltäglichen Benutzern, die Art von High-Tech-Computer-Fälschung einzusetzen, die wir in den Filmen sehen. Im Dezember 2017 tauschte ein Reddit-Benutzer die Gesichter von Schauspielern in Pornovideos mit den Gesichtern bekannter Prominenter aus. Es wurde vorerst gestoppt, aber DeepNude ist ein Zeichen dafür, was kommen wird.