KI-Bilder und Geschichten-Cover

BerndBreadt

Really Really Experienced
Joined
Mar 15, 2018
Posts
487
Hallo liebe Literotica Fans,

der Weihnachts-Thread dieses Jahr hat mich auf die Idee gebracht mal wieder mit Stable-Diffusion zu experimentieren, einfach nur um mal wieder ein paar Anreize zu setzen. Solche Bildchen inspirieren mich meist auch beim Schreiben.
Gibt es unter euch auch ein paar Leute, die das nebenbei betreiben? Falls ja, könnten wir hier doch einfach mal zwanglos unsere Inspirationen zusammensammeln.

Wenn es unter euch jemanden gibt, der das auch gerne machen würde, kann ich mich auch als Helfer beim Einstieg anbieten. Fragt einfach mal nach. Aber Vorsicht für sowas braucht man entweder einen guten Rechner mit einer noch besseren Grafikkarte, oder seeeeeeeehr viel Geduld. Außerdem sind Englischkenntnisse erforderlich.

Ich mach hier mal den Anfang mit meiner aktuellen Muse Emeline, kurz "Emmi". Ein Halbwesen aus Mensch und Wolf:
View attachment 2455592View attachment 2455593View attachment 2455594View attachment 2455595View attachment 2455596

Und hier ein paar hübsche "Fehlversuche", die nebenbei raus kamen:
View attachment 2455598View attachment 2455599View attachment 2455600View attachment 2455603View attachment 2455605

Ich glaube, ich sollte noch etwas Lizenztechnisches zu den Werken hier sagen.

ACHTUNG: Betrifft erst mal nur die von mir generierten Bilder:
Ich weiss nicht, wie es grundsätzlich mit KI-Generierten Bildern aussieht, aber hiermit deklariere ich alle Bilder, die ich generiert und in diesem Thread veröffentlicht habe, als "Gemeinfrei".
Das Gilt auch für die, die auf meinem Google-Drive liegen.
Wer sie also verwenden möchte, z.B. als Cover, darf das tun. Wer etwas daran verändern möchte, darf das auch.

Aber bitte, gebt euch nicht selbst als der Schöpfer der Werke aus.
 
Last edited:
Cool. :)

Du hast Stable Diffusion lokal auf deinem PC laufen? Ich habe mir letztes Jahr das Freepik Abo geholt. Da sind inzwischen auch Mystic und Flux in jeweils mehreren Varianten enthalten.

Die hier habe ich vor etwa einem Jahr für Seraphime gemacht:

Seraphime_t.jpgSeraphime1.jpg
 
In meinem Portfolio fehlen noch Geschichten für die Kategorie "Illustriert". Da ich null Talent für Zeichnen oder Malen habe, habe ich bislang nicht wirklich etwas hinbekommen. Ich habe mal KI-Sexgeneratoren ausprobiert, aber überzeugt hat mich das nicht.

Was interessant wäre, wäre ein Tool, mit dem man, ausgehend von einer gewählten Figur, unterschiedliche Posen/Situationen darstellen kann. Was nicht sein sollte ist, wenn auf den Bildern jedes Mal eine andere rothaarige Frau mit großen Brüsten zu sehen ist.

Gibt es so etwas? Ich lasse mir Charaktere nach meinen Vorstellungen generieren und sage dann: "und jetzt dieselbe Frau, nachdem sie den BH abgelegt hat."
Ich gehe mal davon aus, dass man keine versauten Szenen generieren kann, oder? Wäre ja nett, wenn man ganze Bilderreihen zu den Geschichten schaffen könnte, inklusive Sexszenen.

@BerndBreadt
Die Gesichter bei deinem Model sehen auf den Bildern jedes Mal etwas anders aus. Hast du die Bilder immer bei Null generieren lassen oder hat sich dein zweiter Versuch auf das erste Bild bezogen?

swriter
 
Die hier habe ich vor etwa einem Jahr für Seraphime gemacht:
Ist auch eine sehr hübsche Dame. Legst Du wert auf Tattoos?
Ja, ich habe Stable-Diffusion lokal auf meinem Rechner. Ging erstaunlich einfach. Und die Performance: ca. 30s-60s pro Bildchen, nachdem ich die GPU einbinden konnte.

@swriter : Ich habe mich noch nicht damit beschäftigt, wie ich ein und die selbe Person in unterschiedlichen Situationen hin bekomme. Teilweise kann man mit Celebrities arbeiten, wenn das Model darauf trainiert wurde.
Aktuell habe ich den Anspruch nicht, da ich die Geschichte nicht illustrieren will, sondern nur Anreize für mich haben will. Deswegen sind die Bilder in der Tat immer bei Null begonnen.
Zumindest habe ich so schon mal gelernt, wie ich die Hände und Füße von Emmi besser beschreiben kann. Das muss ich noch nachholen.
Ich gehe mal davon aus, dass man keine versauten Szenen generieren kann, oder?
Doch, das geht. Musst aber selbst auf deinem Rechner machen. Materialien dafür findest zu z.B. hier: civitai.com Ist nur ein Beispiel für Posen, gibt auch noch andere. musst aber dann lokal auf deinem Rechner einrichten. Online-Generatoren bringen in der Tat keine so guten Ergebnisse.

Das hier ist nur Bastelmaterial:
View attachment 2495502
 
Last edited:
Was interessant wäre, wäre ein Tool, mit dem man, ausgehend von einer gewählten Figur, unterschiedliche Posen/Situationen darstellen kann. Was nicht sein sollte ist, wenn auf den Bildern jedes Mal eine andere rothaarige Frau mit großen Brüsten zu sehen ist.

Gibt es so etwas?
Die Software heißt "Blender", da kann man (unter anderem) virtuelle Wesen (z.B. hübsche Frauen) kreieren, nach Belieben an oder ausziehen und posieren lassen.
Ich habe mal ein Tutorial in YouTube geschaut und da wurde mir klar: Wenn es gut werden soll, wäre das ein eigenständiges Hobby, da kommt man dann nicht mehr zum Schreiben.

@BerndBreadt
Die Emmi ist echt süß. Mit den Tatzenhänden komme ich irgendwie noch klar, aber die Füße gehen gar nicht.
 
Die Emmi ist echt süß. Mit den Tatzenhänden komme ich irgendwie noch klar, aber die Füße gehen gar nicht.
Die hat sie ja auch nicht immer. Solange sich ihr Hüter gut um sie kümmert, hat sie nur Ohren und Schweif. (Kleiner Spoiler)

In Sachen Blender: Das ist ein tolles Tool, und man kann auch verdammt viel damit machen. Aber es hat einfach auch wahnsinnig viele Optionen und Möglichkeiten. Einfacher sind da schon Programme wie "Poser" oder "DAZStudio" Aber da musst du oftmals dein Material teuer dazu kaufen.
Bei einem KI-Tool kannst du einfach "sagen", was du sehen willst, und mit Glück macht das Programm das dann auch. Der Nachteil: das Glück und die "künstlerische Freiheit" des Programms, geben dir meist nur etwas, was deinen Erwartungen <nahe> kommen. Außerdem ist das mit dem gleichen Gesicht noch etwas problematisch.
@swriter : Vielleicht wäre an dieser Stelle <Anime> als Model sinnvoll? Die Figuren sehen meist doch eh fast gleich aus.
 
Last edited:
Hallo liebe Literotica Fans,

der Weihnachts-Thread dieses Jahr hat mich auf die Idee gebracht mal wieder mit Stable-Diffusion zu experimentieren, einfach nur um mal wieder ein paar Anreize zu setzen. Solche Bildchen inspirieren mich meist auch beim Schreiben.
Gibt es unter euch auch ein paar Leute, die das nebenbei betreiben? Falls ja, könnten wir hier doch einfach mal zwanglos unsere Inspirationen zusammensammeln.

Wenn es unter euch jemanden gibt, der das auch gerne machen würde, kann ich mich auch als Helfer beim Einstieg anbieten. Fragt einfach mal nach. Aber Vorsicht für sowas braucht man entweder einen guten Rechner mit einer noch besseren Grafikkarte, oder seeeeeeeehr viel Geduld. Außerdem sind Englischkenntnisse erforderlich.

Ich mach hier mal den Anfang mit meiner aktuellen Muse Emeline, kurz "Emmi". Ein Halbwesen aus Mensch und Wolf:
View attachment 2455592View attachment 2455593View attachment 2455594View attachment 2455595View attachment 2455596

Und hier ein paar hübsche "Fehlversuche", die nebenbei raus kamen:
View attachment 2455598View attachment 2455599View attachment 2455600View attachment 2455603View attachment 2455605
Zumindest die obere Reihe wirkt etwas wie die Pin-up-Girls der 60er Jahre....zumindest vom Stil her.
 
mit dessi.io kan man auch pornografische Inhalte erstellen. Das ist kostenlos und lahm. Es gibt noch andere freie und kostenpflichtige.

Von den kostenlosen Test-Versionen lässt sich nicht immer auf das tatsächliche Angebot der Bezahlversion schließen. Gerade, was die Fähigkeiten der Textumsetzung angeht. Ich war auch sehr skeptisch und habe mir schwergetan, zu bezahlen. Aber die Möglichkeiten sind mindestens eine Größenordnung besser, von den Stilen (Photo, Comic, Cartoon... 8Bit-Pixel...) über die Kameraposition bis hin zur besseren Umsetzung des Prompts sind viel bessere Ergebnisse möglich.

Da die Bildgeneratoren mit einem Zufallsrauschen anfangen und dann mittels einer Pseudo-Zufallszahl den Weg des Bildes generieren (der "Seed"), werden die Bilder komplett anders erzeugt als mit z. B. Blender. Und dann hängt es natürlich auch davon ab, mit was die KIs trainiert wurden. Nutzt man bei dem gleichen Prompt den gleichen Seed, wird das KI-Modell auch das gleiche Bild hervorbringen. Damit lässt sich spielen, wenn man das einmal verstanden hat. Man kann z. B. den Seed nutzen, wenn das Bild an sich OK ist und nur Details geändert werden sollen. Hier habe ich den Blickwinkel geändert und der Frau ein Lächeln ins Gesicht gezaubert, der Seed und das Modell waren identisch.

BSP1.jpgBSP2.jpg

Was mir wirklich noch fehlt, ist die Option, Gesichter wiederzuverwenden. Also eine Person in verschiedenen Situationen darzustellen. Gerade zur Illustration von Geschichten wäre das praktisch. Vermutlich geht es irgendwo, aber dann sind wir wieder bei dem Thema "Wieviele Hobbies verträgt meine Freizeit?" ;)

Ansonsten gilt das übliche: kenne dein Werkzeug!

Bilder mit mehreren Personen sind etwas tricky und nicht jede KI kommt damit klar. Der Prompt ist auch nicht ganz so einfach und ich rätsele immer noch, wie die KI die Trennung der Personenbeschreibungen hinbekommt. Aber so einigermaßen funktioniert es:

MLJ3 (1)_t.jpg
 
Ist auch eine sehr hübsche Dame. Legst Du wert auf Tattoos?
Ja, ich habe Stable-Diffusion lokal auf meinem Rechner. Ging erstaunlich einfach. Und die Performance: ca. 30s-60s pro Bildchen, nachdem ich die GPU einbinden konnte.
Tattoos sind durchaus ansehnlich, wenn sie gut gemacht sind. Ab und zu verwende ich sie in einer Story.

Wie gut ist das Stable Diffusion Modell? 30-60s ist nicht ganz wenig, aber auch nicht allzu langsam. Welche GPU hat du? Ich habe nur die beim Notebook-AMD Ryzen integrierte GPU. Bringt RAM was?
 
Wie gut ist das Stable Diffusion Modell? 30-60s ist nicht ganz wenig, aber auch nicht allzu langsam. Welche GPU hat du? Ich habe nur die beim Notebook-AMD Ryzen integrierte GPU. Bringt RAM was?
Also bei KI-Bildgenerierung würde ich aktuell sagen: Vergiss RAM! Vergiss CPU! (Also äääääh, guter RAM und CPU sind schon von Vorteil, aber) Die GPU bringts! Ich hab ne' NVIDIA GeForce RTX 4050 mit 6GB Graphik-RAM in meinem Laptop.
Das ganze läuft unter Debian mit dem Proprietären Nvidia-Treiber. Der Open-Source-Treiber wird von Stable-Diffusion nicht verwendet und dann rendert das Ding auf der CPU. Da muss man dann mit >2min rechnen.

Zu "Wie gut ist das Stable-Diffusion-Modell?": Ich verstehe nicht ganz, was genau du meinst. Die Bildqualität? - Siehe oben. Die Handhabung? - Ich arbeite mit der WebUI, die ist recht Benutzerfreundlich.

Hab gerade nochmal nachgemessen: 40s für ein Bild mit 1024x1408

Deine Bilder sind auch ganz schön. Nachdem ich jetzt aber selbst auf meinem Laptop Bilder generieren kann, stampfe ich die Online-Bildgeneratoren ein. Da ist man zu eingeschrängt, allein schon, was die Größe an geht. Sie sind auch langsamer und man kann sich seine Modelle nicht so frei wählen. Vielleicht finde ich das mit dem "Gesichts-Recycling" auch noch irgendwann raus.
 
Last edited:
Zumindest die obere Reihe wirkt etwas wie die Pin-up-Girls der 60er Jahre....zumindest vom Stil her.
Kommt auf die Einstellungen drauf an. Eigentlich kannst du alles machen, was du willst. Viele Modelle sind allerdings Anime. Dazu gibts noch Plugins für mehr Details oder Realität.
 
Wahrscheinlich erzeugt eien KI diesen stil automatisch wenn es um Anime-Bilder geht.
 
Ich habe keine Erfahrung mit on-Board GPUs, nur mit nVidia GForce Karten.
Entscheidend ist der Speicher der Grafikkarten. Je mehr, desto besser. Im Netz habe ich folgende Empfehlungen für die verschiedenen Model-Typen und den Speicherbedarf gefunden. Mit weniger würde ich es nicht versuchen. Die Berechnung dauert dann sehr lange.
+----------------------+------------------+
| Base Model | Recommended VRAM |
+----------------------+------------------+
| Stable Diffusion 1.5 | 4-6GB |
| Stable Diffusion 2.1 | 4-6GB |
| Stable Diffusion XL | 8GB |
| SDXL Turbo | 8GB |
| Stable Cascade | 12GB-24GB |
| Stable Diffusion 3 | TBD |
+----------------------+------------------+
 
Wahrscheinlich erzeugt eien KI diesen stil automatisch wenn es um Anime-Bilder geht.
Nein, es kommt auf die Trainingsdaten an, die Du lädst. Siehe hier: civitai.com Mit den Trainingsdaten wählst Du schon mal grob den Stil aus. Finetuning kommt später.

@TiefImWesten :
| Stable Cascade | 12GB-24GB |
12-24GB VRAM????? Da legt man doch schon für die GraKa 2k€ hin, oder?

Bin gerade noch auf der Suche nach einer Rüstung für Emmi:
View attachment 2455976
Aber ich schätze, für die Tochter eines einfachen Tischlers ist das etwas zu Kostspielig.
 
Last edited:
Nochmal wegen "Gesichts-Recycling": Das Tool, das ich benutze hat ein Plugin namens ReActor. Dem kann man ein Foto eines Gesichts eingeben, und angeblich baut es das Gesicht dann in die Bilder ein. Probiere ich morgen mal.
 
Hallo liebe Literotica Fans,

Und hier ein paar hübsche "Fehlversuche", die nebenbei raus kamen:
(Mittleres der Bilder) View attachment 2455600

So etwas wollte ich eigentlich für mein Katzenmädchen Felicia hinkriegen, habe es aber trotz vieler Versuche nicht geschafft.

Das sind die besten.

egyptian-black-furry-catgirl-by-rainer-prem-dgt5qqz-350t.jpg

egyptian-catgirl-with-black-fur-overall.jpg
 
Das sind die besten.
Ich bin ja mal überhaupt kein Katzen-Typ, aber die Damen sehen doch grundsätzlich schon mal schön aus, vor allem die obere. Bei der unteren hauen die KI-Deformationen rein. Ich denke, Dein gewähltes Modell unterstützt einfach keine anthropomorphen Wesen. Da solltest Du vielleicht was anderes wählen. Ich habe da gute Erfahrungen gemacht mit "ponyRealism_V22MainVAE" und den Modellen von "Ratatoskr".

@swriter @Doc_M1 : Das sind jetzt die Ergebnisse meiner Tests mit ReActor:
Das gewählte Gesicht habe ich von meiner "Weihnachts Emmi" ausgeschnitten:
View attachment 2456124

Vorher:
View attachment 2456125View attachment 2456126View attachment 2456127View attachment 2456128

Nachher:
View attachment 2456129View attachment 2456130View attachment 2456131View attachment 2456132

Ich denke, das Tool funktioniert. Allerdings gibt es den VRAM nicht ordentlich frei, weswegen nach jeder Generierung die WebUI neu gestartet werden muss. Ist ein bisschen nervig. Außerdem benötigt es extra Zeit für die Gesichts-Ersetzung, was die Bildgenerierung auf über eine Minute bringt.
Man könnte jedoch, wenn man sich die Seeds wegspeichert, den Gesichtstausch erst dann durchführen lassen, wenn man mit dem Rest des Bildes zufrieden ist.
 
Last edited:
@PhiroEpsilon :
Meinst du sowas? Oder menschlicher? Andere Farbe?
View attachment 2456147View attachment 2456193View attachment 2456200View attachment 2456217
Hier meine Prompts:
Positive:
score_9, score_8_up, score_7_up, ultra realistic detailed photography, (full body photograph:2.0), (high quality, detailed, beautiful), anthro cat girl, standing in egypt desert, black cat ears, soft young face, (human face:0.5), black wavy hair, big sized breasts, claws, (black fur:1.2), (feet paws:1.8), (hand paws:1.8), furry legs, seductive, smirking, one girl, detailed beautiful yellow cat eyes, outstanding, clad in light egyptian lingerie, highly detailed fur, misc, glossy hair, glossy fur, <lora:add-detail-xl:2.0>
Negative:
disfigured, ugly, bad, immature, cartoon, anime, 3d, painting, b&w, animal face, wolf face, human ears, animal, dirty skin
 
Last edited:
@swriter : Ja, das ist mir auch schon oft passiert. Oder sollte das Ripley #7 aus "Alien Resurrection" werden?
Wie hast Du das gemacht?
 
@swriter : Ja, das ist mir auch schon oft passiert. Oder sollte das Ripley #7 aus "Alien Resurrection" werden?
Wie hast Du das gemacht?
Ich schaue mir ein Video auf Youtube an und habe mir Stable-Diffuison Automatic 111 auf das Notebook heruntergeladen. Habe dann direkt einen Versuch unternommen, hätte aber das Video zu Ende schauen sollen. Es fehlten noch "Models".

Für einen stinknormalen PC-User ohne Bewandtnis in Sachen git etc. finde ich das alles nicht gerade selbsterklärend.

Mal schauen, was ich am Ende geliefert bekomme, nachdem ich die komplette Anleitung geschaut habe. Wahrscheinlich werden weitere Anleitungs-Videos erforderlich werden. Wäre auch zu schön gewesen, wenn das mal eben sofort geklappt hätte.

swriter
 
@swriter: sieh dir die Pony-Models an. Ich finde die bringen am einfachsten gute Ergebnisse. Versuch das hier: ponyRealism
Im Übrigen: Die Automatic111 WebUI nutze ich auch. Also falsch bist du damit nicht.
 
@PhiroEpsilon :
Meinst du sowas? Oder menschlicher? Andere Farbe?
View attachment 2456147View attachment 2456193View attachment 2456200View attachment 2456217
Hier meine Prompts:
Positive:
score_9, score_8_up, score_7_up, ultra realistic detailed photography, (full body photograph:2.0), (high quality, detailed, beautiful), anthro cat girl, standing in egypt desert, black cat ears, soft young face, (human face:0.5), black wavy hair, big sized breasts, claws, (black fur:1.2), (feet paws:1.8), (hand paws:1.8), furry legs, seductive, smirking, one girl, detailed beautiful yellow cat eyes, outstanding, clad in light egyptian lingerie, highly detailed fur, misc, glossy hair, glossy fur, <lora:add-detail-xl:2.0>
Negative:
disfigured, ugly, bad, immature, cartoon, anime, 3d, painting, b&w, animal face, wolf face, human ears, animal, dirty skin

Ja, so etwas hatte ich mir vorgestellt. Die zweite sieht sehr gut aus (hat nur zu viel Kleidung an :). Allerdings habe ich nie so detaillierte Anweisungen hätte geben können; ich verstehe sie jedoch mehr oder weniger. ("big sized breasts" sind mir persönlich zu groß) Welches Programm hast du dafür benutzt?
 
Back
Top