Midjourney experiment

Jag har försökt testa på Midjourney utan framgång. Måste man betala månadsvis för att få det att fungera? Kör man allt genom discord? Var det där du skapade dina bilder för din barnbok? Tyckte detta var ett helt underbart koncept och skulle gärna gjort en till min dotter :slight_smile: Tänk så roligt att få ge det i present haha eller om man ger till vänners barn etc. Helt sjukt! Älskar tanken.

Om du har lust, kan du inte skapa en tråd där du berättar om hur du gått tillväga, eller skriv ett inlägg här med mer information, tror många är intresserade av detta! Jan kanske kan klippa ut det till en egen sub-tråd.

Tips och trix för att få bra bilder, hur skrev du, vad behövde du ändra på etc. Texten, hur fungerar det? Skriver man bara vad man förväntar sig och sen ber den skriva en historia om xxx. Jag är helt novis! Tack på förhand :slight_smile:

Ja, man kör allt genom discord. Man går in en kanal, t.ex. newbie (jag använder denna) och sedan skriver man

/imagine

och därefter sin prompt. Jag tror inte man behöver ha betalversionen.

T.ex. här var någon som körde följande lååånga prompt för att få denna bild:

https://s.mj.run/dEpoEdBdV6I https://s.mj.run/S6LQcmlan1w cartoon of young blonde girl and her younger brunette brother on a small wooden ship that is sailing on the ocean during a violent thunderstorm, zoomed out perspective from the side of the ship, lighting flashing in the distance, large dark ocean waves, dark stormy skies, moody dark lighting, hand-drawn animation, adventure theme, traditional color scheme, Disney on the prairie hilarity, rural clothing, cute cartoonish designs, charming cartoon characters. --v 5 --ar 1:1**

PS. Grattis på födelsedagen.

3 gillningar

Tack för gratulationen!

OMG jag blir mind-blown desto mer jag får reda på haha

Jag har försökt utan betalversionen men får upp att jag måste subscriba och då måste jag betala verkar det som. Kommer nog prova på det för att lära mig mer, värt dom pengarna :slight_smile:

Om man köper chat gpt för 20 dollar i månaden får man då tillgång till “allt”? Eller finns det restriktioner? Förstår inte riktigt vad instructGPT är t.ex. där någon är snabb, någon är “mer kraftfull”. Behöver man bry sig?

1 gillning

Nej, det enda du får med ChatGPT betalversionen är att du får fler möjligheter att ställa frågor till den och att du kan använda det även i perioder då det används mycket. Det går göra gratis via Bing.

Tyvärr verkar det inte att gå använda Midjourney gratis längre… :cry:

Stable Diffusion är ”samma” sak som Midjourney, men gratis, och man kör det på sin egen dator (kräver starkt grafikkort). Det är lite meckigt att installera och komma igång, men det finns gott om (text/video) tutorials man kan följa för hur man gör.

Varianten du vill köra är antagligen automatic1111, som är ett gui för StableDiffusion som gör det lite smidigare att använda.

Åven Midjourney finns som webgui med mer funktioner än bara text-prompt tror jag, men har inte provat.

Det som är riktigt magiskt med StableDiffusion tycker jag är inpaint, eller img2img, där man kan låta AIn inspireras av en bild och göra varianter av den, man kan byta delar av en bild och lägga dit eller ta bort saker.

Här är lite humor gjord med den funktionen i Stable Diffusion, baserad på ett existerande meme/original (första bilden). Följ sedan bild för bild där Stable Diffusion har ändrat baserat på textinstruktioner:

|510.0x332.0

Många känner inte till att Munch mot slutet på sin karriär flera gånger uppdaterade tavlan. Det sägs att dessa förbättringar inspirerade George Lucas att även göra nya versioner av sina Star Wars-filmer:

|510.0x258.0

|490.0x256.0

|487.0x254.0

(Sista bilden är Stable Diffusion plus mod med Photoshop)

1 gillning

Får man tillgång till gpt-4 och plugins med gratisversionen nu? Till en början var det bara för betalande kunder.

Tycker gpt-4 klarar mycket mer avancerade resonemang än tidigare. Bara den funktionen gör månadskostnaden väldigt överkomlig.

2 gillningar

Midjourney hade en gratisversion tidigare, men nu krävs att man betalar. Gränssnittet via Discord är verkligen horribelt, men bilderna blir magiskt bra.

1 gillning

Med Stable Diffusion och img2img kan man med lite kunskap och tålamod gå från


till

Det är en oerhörd förstärkare.

2 gillningar

Hur gör jag för att köra det lokalt på min dator? Jag har ett geforce 4080 så bör fungera, annars har jag köpt ett grafikkort för 16 500 kr i onödan haha

Hur får man igång img2img tillsammansm ed stable diffusioin? Känner mig så gammal trots att jag borde lösa detta :smiley:

EDIT
Vänta med svar, jag kollar en guide på youtube, återkommer om det fungerar haha’

EDIT

Fått det att fungera men kvaliteten är ju sisådär än så länge. Testade göra två bilder på olika ställen, ett i stable diffusion lokalt på datorn och en på lexica. Samma prompt

“movie shot of white young girl with big blue eyes as superhero with suit in pokemon city, 8k, HD, night theme”

Fick detta resultat av diffusion

och detta av Lexica

Tittar man på Lexica så ser mna att dom använder “model Lexica Aperture V2”

Är det detta som gör bilderna så sjukt bra? Kan man förbättra sin diffusion?

1 gillning

Man kan installera olika modeller och extensions som har tränats på att göra olika stiler av bilder. Vilken modell installerade du? Jag tycker inte rena 1.5-modellen som brukar nämnas som startmodell är så bra, det finns modeller som ger mycket coolare bilder.

Att hitta en model som du gillar är ett härke, men det finns några populära katalog-siter för det. Denna t ex:

Den listar även massa bilder folk har gjort, och om man klickar på bilden och tittar i högerkolumnen kan man ofta/ibland se prompten, modellen och andra inställningar som de använt för att generera den.

Sajten förklarar hur man installerar och använder modellen/konfigurationen om du klickar det lilla frågetecknet bredvid Type i högerkolumnen:
image

Du kan lista modeller i popularitetsordning på sajten, men denna har jag sett rekommenderas när folk pratar om att komma igång:

Jag genererade den här bilden med Stable Diffusion och Epic Diffusion-modellen nu:

Du kan dra bilden in i automatic1111 i fliken som heter “PNG info”, så får du alla inställningarna som användes för att genera bilden (jag har ställt in mitt automatic111 att spara inställningarna som en tag i bilden). Sedan kan du klicka “send to txt2img” så skickar den alla inställningar inklusive seed till den fliken. Då borde du kunna generera exakt samma bild som jag, om du har samma modell och annat i övrigt.

EDIT: Forumet förstör bilden på något sätt, så den sparade taggen försvinner (antagligen anonymiserar forumet bilderna så man inte ska råka ge folk sina gps-koordinater som ofta sparas i bilderna av telefoner).

Jag kör dock med “–xformers” som argument när jag startar webgui, och det sägs att den inte alltid generar precis samma bild varje gång då, så vore intressant att se om du får samma :slight_smile:

Så här säger PNG info för mig:

parameters

hyperrealism movie shot of white young girl with blue eyes as superhero with suit in pokemon city night theme,

dynamic pose, in action, standing,

bustling city, people on street in detailed background, rainy street, fog,
bokeh,

full body
Steps: 90, Sampler: Euler, CFG scale: 7, Seed: 3533463320, Face restoration: GFPGAN, Size: 768x512, Model hash: ee6266109f, Model: epic-diffusion, Denoising strength: 0.75, Mask blur: 4

OBS: Jag gjorde inpaint på ansiktet för att snygga till det (vanligt trick), så det som syns där är inställningarna för inpaint-genereringen, men det är samma inställningar som jag körde på hela bilden först.

Edit: Dock hade jag tydligen glömt att låsa seed, så seed för första körningen skiljde sig och var: 897205273

1 gillning