En artikel på SVT tog upp lite om en studie kring vilka som lättast går på finansiell bullshit och vilka som är lite mer kritiska.
Jag har inte hunnit läsa genom studien själv, men kul att det forskas kring detta ämne och kanske någon vill läsa den och dela sina tankar kring studien och ämnet i sig.
Nu skulle jag inte tro för mycket på artikel som baserad på en internetundersökning med 1250 deltagare där de tog bort 161 deltagare, så artikeln hade 1058 svar.
Ändå lite små roliga slutsatser,
Gott självförtroende ger ökad risk att bli lurad.
Consumers particular vulnerable to financial bullshit are more likely to be young, male, have a higher income, and be overconfident with regards to their own financial knowledge. The ability to detect and distinguish financial bullshit also predicts financial well-being while being less predictive of consumers’ self-reported financial behavior, suggesting that susceptibility to financial bullshit is linked to affective rather than behavioral reactions.
Högre inkomst ger en minskad vaksamhet för att skydda sin ekonomi.
The finding that higher income was positively related to being susceptible to financial bullshit might also be surprising. However, it seems reasonable to believe that as income rise consumers become less vigilant when it comes to financial matters and therefore less alert when it comes to detecting to be affected by impressive financial language.
Små rolig slutsats att exempelvis lyssna på @janbolmeson istället för annan bs ger ett försämrat ekonomiskt självförtroende .
We also investigated the consequences susceptibility to financial bullshit has for financial well-being and financial behavior. Our results show that the financial bullshit scale predicted subjective financial well-being. In particular, consumers with an increasing ability to detect bullshit felt more insecure about their finances. Put differently, consumers worse at distinguishing between bullshit and genuine communication exhibited an ignorance-is-bliss effect when it came to subjective financial well-being. This ignorance-is-bliss effect did however not extend to self-reported financial behavior in our study. Considering these results, being able to detect and distinguish bullshit from genuine financial statements is neither unequivocally a good nor a bad thing. On the good side, people who were less susceptible to financial bullshit displayed a greater ability on a number of financially relevant competencies (e.g., greater objective financial knowledge). On the bad side, susceptible to bullshit was also related to a decrease in perceived financial security about their own future financial situation.
Jag tror att @Thomas86 poäng är att det är svårt att hitta 1000 personer som är ett exakt urval av gruppen man avser mäta och således får man ta resultatet med en nypa salt - precis som valundersökningarna med andra ord.
Undersökning med 1000 personer ger margin of error 3% med 95% confidence level. Det är vanligaste urvalsstorleken, eftersom mer än så ökar kostnaderna men har väldigt liten påverkan på margin of error.
Meningen är väll att inte mäta en grupp utan ta en blandning för att få fram skillnader mellan vad man anser i olika frågor beroende på andra faktorer. Så ser inte vad som skulle vara problemet. Samtidigt är 1000 personer en tillräckligt stor grupp för att kunna urskilja skillnader beroende på faktorer med hög sannolikhet. Nu jobbar jag inte med statistik men enligt mitt kunnande i området är det en helt ok utförd undersökning.
1000 deltagare är generellt en lägre gräns för att studien ska anses ha något värde alls, beroende på hur många faktorer som undersöks etc.
Läste briefen mycket snabbt – frågan är om det ö h t lagts fram en vetenskaplig teori i förväg eller om man helt enkelt letat resultat i bruset. I det senare fallet kan studieresultatet helt och hållet förbises då det inte är vetenskapligt genomfört.
Det mer problematiska är att det är en internetstudie. Det kan betyda att deltagarna inte valts ut för att representera befolkningen, utan istället sökt upp/fyllt i studien på eget initiativ, och även detta moment gör studien obetydlig.
Hur som helst, ännu en studie i raden som bara råkar vara mycket politiskt korrekt, och som bara råkar vara just den som SVT plockar upp och gör en artikel om.
Dess enda syfte är att höhö-skicka till sina polare.
Kan ni tänka er SVT skriva en artikel med motsatt resultat?
Genomskinligt och cyniskt reportage av en högst tveksam studie. Tips till SVT: Om en studie visar vad ni vill att den ska visa ska ni vara 10 gånger mer kritiska.
Jag vet inte hur SVT går tillväga när de valt just denna studie att skriva om, studien finns även omnämnd på Morningstar och troligen florerar den i Universitetskretsar och på andra nyhetssidor.
Man får också väga in att det är, så vitt jag förstår, studenter som genomfört studien. Jag utgår alltid från att studier som genomförs får en viss reflektering av de som gjort den. Men har ändå högre tillförsikt för denna typ av studie än till exempel studier som köpts av stora företag eller lobbygrupper.
Då jag själv inte läst studien, utan bara sammanfattningen, så är inte mina kunskaper kring studien stora. Men tycker ändå det finns ett värde i att studier som denna syns i nyheterna, den är i alla fall baserad på svar från en stor mängd personer, i stället för en så kallad experts svar.
Är själv rätt trött på att många nyheter där en persons alarmerande citat delas, endast för att generera så många klicks som möjligt, men utan att den har någon som helst verklighetsanknytning.
Möjligen att det stämmer för svenska institut men ser lite annorlunda ut för MTurk som rapporten använde sig av,
Our studies demonstrate significant data quality problems on MTurk. In 2018, 25% of the data we collected was potentially untrustworthy, and that number held roughly constant into July 2020 (27%).
Ultimately, researchers ought to recognize that MTurk is liable to be more prone to
“lemon” responses for two reasons. First and foremost, unlike other online survey panels, MTurk does not recruit respondents based on known characteristics, thereby increasing the likelihood of obtaining respondents masquerading as someone else. Not only do MTurk
Requesters know nothing about these respondents in advance, but they make up thousands
of independent employers rather than one central management system. This means that
the only signal of response quality propagated to the market is HIT approval. On any paid
platform, non-serious responding is bound to be a concern, but our analysis suggests the
problem is magnified on MTurk.
But we believe that we are currently reckoning with a new problem in our relationship with research participants—one that demands we add “respect for validity of data” to the framework that guides this relationship. We do not believe this call is inconsistent with respect for persons, beneficence, or justice. In particular, a solution starts with researchers thoughtfully gathering data: using more credible alternatives to MTurk when possible, especially making use of pre-existing variables in online panels to leverage within-subjects studies’ statistical power; using respondent requirements thoughtfully on MTurk; and, ultimately, being clear about the expectations of respondents when obtaining their consent. With these broad principles, we believe that researchers can recruit good-faith participants while fairly avoiding—and screening out, when necessary—those who contribute to the data quality problem.
As it stands, researchers committed to paying a relatively fair wage on MTurk may
do just as well contracting with an established survey sampling firm. While we found some
evidence of suspicious responding in samples curated by SSI (now Dynata) and Lucid, these
rates are a fraction of their apparent analogs on MTurk. More importantly, according to
our cost-benefit analysis, MTurk may not even be that much more cost-effective, if at all.
Studies 2 and 3 cost 7.4 and 10.1 cents per valid respondent per minute, and we conservatively estimate that researchers can conduct research on Lucid (e.g., Coppock and McClellan 2019) for just over 10 cents per minute (e.g. Busby 2020; Graham 2019; 2020). With the benefits of working with an established panel—the external validity from a more representative sample, being able to conduct within-subjects experiments in a single wave thanks to panel variables—we suspect that MTurk may be best used for testing item wording, piloting treatments, and other quick research tasks.