Det är lättare att slumpmässigt sätta samman text än att faktiskt räkna.
Det var gratisversionen och 3.5. Men tänkte att den ändå borde summera ett antal heltal korrekt.
Prova en miniräknare, den har ett bra sätt att göra aritmetik. Det du använder är en motor för språkhantering. Ett under att den kan räkna överhuvudtaget
(om den nu får nått rätt). Den har säkert sett siffran 3960 i ett väldigt snarlikt scenario tidigare och tycker att det passar bra in.
Det blir lite som att använda en såg för att slå i en spik.
Men jag tycker det är bra att den är ödmjuk, erkänner sitt misstag och ber om ursäkt
den vet att det är viktigt att det blir rätt också men har bara inte rätt funktionalitet för att göra den typ av uträkning ![]()
![]()
![]()
GPT sätter inte ihop text slumpmässigt, den förutser vad nästa ord ska vara och i det här fallet blir det fel. Men den har blivit bättre och skapar en “förståelse” (dvs den lär sig räkna).
Precis, tänkte att den borde säga att den inte är så bra på att räkna. Jag frågade det men, det ville den inte erkänna ![]()
Idag bör man se den här typen av AI som vilken människa som helst som man frågar.
Ställ samma fråga till ett slumpmässigt urval människor så kommer de glömma bort vad du frågade, förstå frågan fel och räkna fel. Kanske i större utsträckning än AI:n.
Man ska inte se AIn som facit, uppslagsverk, utan som vem som helst som får en uppgift som kan göra fel.
I framtiden, och GPT 4 är bra mycket bättre än 3.5, så kommer det bli bättre så klart.
Må så vara men det är inte så bra på det.
Inte så bra självinsikt ![]()
Vilken data en modell tränas på är för mig en oerhört avgörande fråga, då det bestämmer det modellen senare kommer spotta ur sig.
Såg ett reportage på SVT med en forskare från AI Sweden som sa att det inte var ett problem, utan knuffade hur man skulle hantera det till de produkter som byggs ovanpå själva språkmodellen. Då reagerade jag och tänkte att här skarvar det ganska betänkligt, för om modellen lär sig att vara ultraextrem maratonlöpare kombinerat med hårdför fengshui så är det innehållet den kommer spotta ur sig.
Dagens intervju bekräftar min tanke om att det modellen lär sig, kommer komma ut när den väl används i verkligheten. I det här fallet rysk propaganda kring Ukraina etc. Rent hittepå som modellen upprepar blint, då den inte har ett filter utan lär sig bara sätta ihop ord till begriplig text.
Hur går tankarna kring sådant?
Min tanke är att det är bättre ju mer (laglig) information den tränas på. Gärna så vitt spridda åsikter som möjligt. Inklusive antifa och annat extremt. Jag förstår inte poängen med censur oavsett i vilken form det kommer.
Ett viktigt undantag är produkter för barn. I övrigt ser jag inga problem med det, då alla vuxna människor har förmågan att tänka kritiskt.
Det är dock tänkvärt att SVT inte ger den vänsterextrema AI träningen samma uppmärksamhet om man ändå är i farten med att kommentera censur.
Prova Bing, den verkar en egen inbyggd funktion för aritmetik. Den säger själv att den använder sig av LaTex, en miniräknare eller att den kan använda programspråket Python för uträkningar.
Det du skriver föranleder mig till att tro du inte såg videoinslaget eller läste texten i sig själv. Därför jag tog upp helt andra exempel, för att belysa just hur dessa modeller fungerar. De spottar ut det de tränas på. På gott och ont. Därav min fråga. Delar absolut inte din syn om att alla vuxna har förmågan att tänka kritiskt. Vilket ger upphov till massförstärkning av osanningar. Vilket ytterligare kommer förstärkas av dessa MML-redskap. Vilket som följd kommer öka gapet och intensiteten mellan olika ståndpunkter som står i klinch med varandra. Därav min fråga.
Klickar man sig igenom länken till Googles publicerade AI principer är det också uppenbart att just denna input bryter mot deras listade principer. Enkel sak att skriva, en annan att efterleva när man matar in allt man kommer över.
Detta är iofs inga nyheter för de som arbetar inom fältet. Det är välkänt fenomen och har tagit sig ofantliga mängder uttryck över tid. Ljusmätare som bara fungerar på ljus hud, bildalgoritmer som parade vithyade människor till rätt art, medan mörkhyade blev klassificerade som apor etc. Detta upprepas återigen i dessa LLM-modeller om man läser in allt vitt och brett. Vilket bekräftas av den som intervjuas.
Lägger in en länk till ett ökänt exempel som gick jättebra från Microsoft ![]()
Såg just ett intressant program på svt i ämnet.
Det här är alltid en väldigt viktig skiljelinje för hur man ser på politik, hur man ser på människors värde och frihet.
Så du tycker att människor inte kan tänka kritiskt och därför bör vi gömma viss information för dem ? Vem är det som ska bestämma vad för information som vi vanliga människor ska få ta del av ? Vad är det som gör att viss information som en AI kan “spotta ur sig” blir “på ont” ? Eller på “gott” för den delen, om man inte tänker på den direkta nyttan den gör då.
Om man vänder på det och tänker ur ett demokratiskt perspektiv vore det väl definitivt vara dåligt att försöka tysta vissa röster, och bra att inkludera alla ?
Eller huvudräkning alternativt penna och papper. Bra motion för de små grå.
Träningen sker med RLHF - dvs mänsklig feedback är en stor del av processen. Exempelvis så kan en läkare bedöma svar på medicinska frågor och ge tummen upp eller ner under träningen.
Jag förstår det resonemanget, och har hört det från folk i min närhet, men jag blir alltid lite förundrad. Jag tror det finns någon sorts missförstånd kring vad effektivitet och produktivitet är. Det finns inget negativt med att kunna göra samma sak fast snabbare eller med färre resurser, även om alla kan göra det.
Enklast är att titta runt omkring sig i samhället och föreställa sig vilka saker vi inte gör just nu för att kostnaden är för hög, och sen föreställa sig att samma saker är 10 gånger billigare. Det är faktiskt rätt svårt, eftersom resursbegränsningar är så underförstått när man konstruerar något. Varför kan t.ex. inte alla platser på tåget mellan Göteborg och Stockholm vara första klass med extra benutrymme och breda säten? Varför är genomsnittsbadrummet 10 kvm och inte 20 kvm stort? Har du någonsin gått in i ett badrum och känt att “det här badrummet känns lite väl rymligt”?
Om allting blir 10 ggr mer effektivt så gör det fortfarande sjukvården och miljötekniken effektivare. Det finns t.ex. massor av mjukvara som skulle behöva skrivas för att effektivisera administrationen inom sjukvården och säkert administrationen och utrullningen av miljöteknik, men som inte skrivs just nu på grund av att det är för dyrt. Hade det inte varit bättre om skolplatformen i Stockholm som skrotades bara kostat 100 miljoner kronor istället för 1 miljard?
I teorin har du rätt.
Men det jag syftar på är ju de verktyg som hjälper till med att diagnosticera cacer m.m. Inte att administrera fortare. Det man i första hand bör göra där är att förbättra rutinerna.
Och det stora racet bland techjättarna tycks ju vara att trycka ut AI i allt från Bing och Excel till Facebook och Snapchat. Och inget av det handlar om att rädda världen utan mest hur man kan hooka kunderna.
Tyvärr tror jag att AI i Snap mest är dåligt för världen.
I september-oktober 2022 läste jag inom ramen för min master-utbildning inom E-hälsa om AI-genererad text i kombination med NPL, Natural Language Processing, som verktyg i patientjournaler, och tänkte att det nog dröjer tills att sådant funkar tillräckligt bra… men nu när jag testar ChatGPT inser jag vad mycket som hänt bara på den korta tiden. Bad gratisversionen skriva några fiktiva patientfall åt mig efter några parametrar, jag blev ganska imponerad! Dock när jag bad den diagnos- och åtgärdsklassificera enligt ICD-10 och KVÅ lyckades den inte pricka helt rätt på alla, men det är nog bara en tidsfråga. Än så länge jobbar jag som medicinsk sekreterare och tänkt fortsätta med det tills jag är klar med min master, för min del hade jag gärna lämnat ifrån mig främst diktatskrivningen till en robot redan igår, det finns så mycket annat administrativt som man hade kunnat avlasta från läkare, sjuksköterskor, chefer och andra om inte transkriptionen ätit upp den mesta av tiden (men de flesta av mina kollegor verkar inte alls hålla med mig). Men enligt vad jag uppfattat så ligger sjukvården efter med det administrativa, som exempel är det patientadministrativa systemet jag jobbar med från 70-talet (gränssnittet är från typ slutet av 90-talet/början av 00-talet, men grunden är från 70-talet och vissa funktioner finns fortfarande bara i textkommando-versionen) och vi faxar fortfarande frekvent, trots att modernare möjligheter finns så är det tunggrott att få nymodigheter att slå igenom. Så jag tror inte AI gör intåg i vårdadministrationens värld än på ett tag. Möjligheten att diktera in tal direkt till text finns redan men på min klinik är det nästan inga läkare som vill använda sig av det. Vi håller på att införa ett “nytt” journalsystem i min region men det drar ut på tiden och jag tror tyvärr att det kommer kännas gammalt när det väl införs.
Det var lite tankar jag fick utifrån AI relaterat till min situation, och jag blev inspirerad att söka till AI-relaterade kurser under min fria termin samt behandla det i min kommande masteruppsats på något sätt efter att ha hört det här avsnittet! Känner väl någon sorts skräckblandad förtjusning över AI i nuläget, men det känns som något man oundvikligen måste lära sig förhålla sig till oavsett känslor inför det.
Testat?