Coffee Demon
Ledersockenstreicher
Hier mein erster Versuch
Das Ergebnis ist noch nicht so wie geplant.
Das Ergebnis ist noch nicht so wie geplant.

Möchte mich da gerne reinabeiten. Gibt es einen ersten Anlaufpunkt, wo ich anfangen könnte?Absolut! Deshalb sollte man den scheiß einfach lokal machen. Es gibt mittlerweile so viele Modelle und Plugins, dass wirklich alles machbar ist, wie absurd und degeneriert es auch sein mag.
Man findet quasi überall tausende Guides.Möchte mich da gerne reinabeiten. Gibt es einen ersten Anlaufpunkt, wo ich anfangen könnte?![]()
Cool, danke dir. Das ist doch schon mal ein guter AnsatzMan findet quasi überall tausende Guides.
Als ersten Anlaufpunkt bezüglich generativer AI für Bilderstellung bietet sich Stable Diffusion an.
Dafür gibt es verschiedene GUIs, ohne dass es objektiv ein "Bestes" gibt. Ich habe selbst damals mit dem WebUI von Automatic1111 angefangen, aber mittlerweile auf SD.Next umgestiegen. Es gibt auch recht simple Interfaces wie InvokeAI oder EasyDiffusion. Ich persönlich habe die aber immer als eher limitierend empfunden. Vielleicht ist es zum bloßen Rumspielen für Anfänger aber ganz gut um nicht direkt völlig erschlagen zu sein.
Als Anlaufstelle für Modelle bietet sich Civitai an. Da findet man wirklich jeden Scheiß. Am besten setzt du den Filter (ganz rechts) mal auf SD 1.5 und den "Model Type" auf "Checkpoint".
Die meisten Modelle basieren auch heute noch auf Stable Diffusion 1.5.
Es gibt zwar mittlerweile schon Stable Diffusion 2.1 (hat sich nicht durchgesetzt) und Stable Diffusion XL (ist noch recht jung und benötigt mehr Rechenpower), aber 1.5 ist nach wie vor so ziemlich der Platzhirsch, was die schere Menge der Modelle, etc. angeht.
Checkpoints ist der Sammelbegriff für vollständige Modelle. Wichtig ist: Viele Modelle sind einfach Mixe von zwei anderen Modellen und ähneln sich mitunter. Um ein bestimmtes Konzept umzusetzen (meinetwegen übergroße Titten), brauchst du nicht direkt ein komplettes Modell, sondern es reicht eventuell ein "Embedding" oder "Lora". Ohne auf die technischen Hintergründe einzugehen: Diese beiden Formate sind darauf ausgelegt ein bestimmtes Konzept (ein Charakter, eine Pose, einen Artstyle, etc) umzusetzen und nichts anderes. Sie sind aus diesem Grund VIEL kleiner als ein kompletter Checkpoint. . Für den Anfang ist es aber sicherlich völlig ausreichend, erstmal einfach mit Checkpoints an sich rumzubasteln.
Was vielleicht noch wichtig wäre: Wenn du die Wahl zwischen "Safetensor" und "PickeTensor" hast - nimm Safetensor. Das ist das sicherere Dateiformat, da darin kein ausführbarer, bösartiger Code lauern kann.
Es gibt UNFASSBAR viel zu entdecken und zu lernen. Je nachdem für welche Software du dich entscheidest, wird der Anbieter eine entsprechende Wiki anbieten, die du dir dringend anschauen solltest. Bei nicht klärbaren Fragen, kann ich aber sicher auch nochmal meinen Senf dazugeben ;D
Und Bildgenerierung ist ja nur der Anfang. Auch das klonen von Stimmen, anpassen von Lippenbewegungen und tauschen von Gesichtern ist mittlerweile eine dermaßende Lappalie, dass es beängstigend ist. Insbesondere wenn man bedenkt, dass der richtige "AI Hype" noch in den Kinderschuhen steckt.
Jup! Und Themen wie "Modelle aus Basis von bestimmten Konzepten (Personen, Gegenständen....DÜSI) zu trainieren" wurden ja noch gar nicht angeschnittenCool, danke dir. Das ist doch schon mal ein guter Ansatz![]()