Bias di conferma
In psicologia, il bias di conferma o pregiudizio di conferma (in inglese confirmation bias o confirmatory bias) è quel bias cognitivo umano per il quale le persone tendono a muoversi entro un ambito delimitato dalle loro convinzioni acquisite, tentando di ricondurre a tale ambito qualsiasi situazione si trovino a sperimentare.[1]
Le persone mostrano questo pregiudizio quando selezionano e danno credito solo alle informazioni che sostengono le loro opinioni, ignorando quelle contrarie o sostenendo che la prova contraria sia falsa, oppure quando interpretano le prove ambigue come se sostenessero le loro teorie esistenti. L'effetto è più forte per i risultati desiderati, per le questioni influenzate da emozioni e per le convinzioni profondamente radicate. Il bias di conferma non può essere eliminato ma solamente gestito; ad esempio, attraverso l'educazione e la formazione al pensiero critico.[2]
Storia
[modifica | modifica wikitesto]Nel corso della storia, decisioni di scarsa qualità dovute a questo bias sono state documentate in contesti militari, politici e organizzativi.
Una serie di esperimenti negli anni sessanta iniziati da Peter Cathcart Wason suggeriscono che le persone a partire dalla prima infanzia tendano a voler confermare le loro convinzioni acquisite.[3] Studi successivi hanno reinterpretato questi risultati come una tendenza all'essere parziali nell'esaminare idee, concentrandosi su una possibilità e ignorando le alternative. In certe situazioni questa tendenza può pregiudicare le conclusioni.[4]
Descrizione
[modifica | modifica wikitesto]Il bias di conferma è un processo mentale che consiste nel ricercare, selezionare e interpretare informazioni in modo da porre maggiore attenzione, e quindi attribuire maggiore credibilità, a quelle che confermano le proprie convinzioni o ipotesi e, viceversa, ignorare o sminuire informazioni che le contraddicono. Il fenomeno è più marcato nel contesto di argomenti che suscitano forti emozioni o che vanno a toccare credenze profondamente radicate.
Spiegazioni per questo bias includono il pensiero illusorio e la limitata capacità umana di gestire le informazioni. Un'altra spiegazione è che le persone sottovalutano le conseguenze dello sbagliarsi invece di esaminare i fatti in maniera neutrale, scientifica. Il confirmation bias è il risultato di strategie automatiche involontarie, più che di inganno deliberato[5][6].
Rimozione del bias
[modifica | modifica wikitesto]Diversi studi si sono cimentati nella ricerca di metodi di "rimozione del bias" dal pensiero umano, ma i pochi risultati si sono ottenuti solo in ambito sperimentale controllato.[7]
Tipologie
[modifica | modifica wikitesto]I bias di conferma sono fenomeni riguardanti l'elaborazione delle informazioni. Alcuni psicologi usano il termine "bias di conferma" per riferirsi a qualsiasi metodo usato dalle persone per evitare di disfarsi di una credenza, che si tratti della ricerca di prove a favore, della loro interpretazione di parte o del loro recupero selettivo da memoria. Altri restringono l'uso del termine a una ricerca selettiva di prove.[8][9]
Ricerca di informazioni
[modifica | modifica wikitesto]Gli esperimenti hanno ripetutamente confermato che le persone tendono a verificare a senso unico la validità delle ipotesi, cercando prove coerenti con le loro stesse ipotesi.[11][12] Piuttosto che cercare tutte le prove rilevanti, tendono a costruire le domande in modo da ricevere risposte che sostengano le loro idee.[13] Cercano i risultati che si aspetterebbero se le loro ipotesi fossero vere, piuttosto che quelli che si avrebbero se fossero false.[13] Per esempio, qualcuno che deve trovare un numero attraverso domande a risposta sì/no e che sospetta si tratti del numero 3 potrebbe domandare "È un numero dispari?" La gente preferisce questo tipo di domanda, chiamato "test positivo", anche quando un test negativo come "È un numero pari?" avrebbe la stessa resa informativa.[14] Tuttavia, questo non significa che le persone ricerchino test che garantiscano una risposta positiva.
Negli studi in cui i soggetti potevano scegliere sia questi pseudo-test sia altri veramente diagnostici, questi ultimi sono stati preferiti.[15][16] La preferenza per test positivi non è di per sé una distorsione dato che i test positivi possono dare molte informazioni.[17] Tuttavia, in combinazione con altri effetti, questa strategia può confermare credenze o assunzioni indipendentemente dal fatto che siano vere.[18] Nelle situazioni del mondo reale, le prove sono complesse e mescolate. Per esempio, varie opinioni contraddittorie su qualcuno possono essere sostenute focalizzandosi su un certo aspetto del suo comportamento.[12] Così una qualunque ricerca di prove a favore di una certa ipotesi avrà probabilmente successo.[18] Questo è ben rappresentato dal fatto che il modo di porre una domanda può significativamente cambiare la risposta che si ottiene.[12] Per esempio, i soggetti a cui è stato domandato “Sei felice della tua vita sociale?” hanno riferito una soddisfazione maggiore di quelli a cui è stato chiesto “Sei “in”felice della tua vita sociale?”[19] Anche un piccolo cambiamento nella formulazione di una domanda può modificare il modo in cui le persone cercano, tra le informazioni loro disponibili, e quindi le conclusioni a cui arrivano.
Questo è stato dimostrato usando un caso fittizio di custodia infantile.[20] I partecipanti hanno letto che il genitore A era moderatamente adatto (ad avere la custodia) da diversi punti di vista. Il genitore B aveva un mix di qualità particolarmente positive e negative: un'ottima relazione con il bambino ma un lavoro che l'avrebbe tenuto lontano per lunghi periodi di tempo. Quando è stato chiesto "Quale genitore dovrebbe avere la custodia del bambino?" la maggioranza dei partecipanti ha scelto il genitore B, guardando principalmente alle qualità positive. Tuttavia, quando è stato chiesto "A quale genitore deve essere negata la custodia?" i partecipanti hanno guardato alle qualità negative e la maggioranza ha risposto che al genitore B deve essere negata la custodia, implicando che questa dovesse essere assegnata al genitore A.[20]
Studi simili hanno dimostrato come la gente si impegna in una ricerca distorta delle informazioni ma anche che questo fenomeno può essere limitato da una preferenza per test veramente diagnostici. In un esperimento iniziale, i partecipanti valutavano la personalità di un'altra persona nella sua dimensione introversa-estroversa sulla base di un’intervista le cui domande venivano scelte da una lista data. Quando l'intervistato veniva presentato come introverso, i partecipanti sceglievano domande che presumevano introversione, tipo "Che cosa non ti piace delle feste rumorose?" mentre quando l'intervistato veniva presentato come estroverso, quasi tutte le domande presumevano estroversione tipo "Che cosa faresti per ravvivare una festa noiosa?" Queste domande davano agli intervistati poche (o nessuna) possibilità di falsificare le ipotesi fatte su di loro.[21]
Una successiva versione dell’esperimento dava, ai partecipanti, una lista di domande da scegliere meno presuntive, tipo "Rifuggi le interazioni sociali?".[22] I partecipanti hanno preferito fare queste domande più diagnostiche mostrando una debole distorsione verso i test positivi. Questo schema, di una preferenza principale verso i test diagnostici e di una più debole verso i test positivi è stato replicato in altri studi.[22] I tratti della personalità influenzano e interagiscono con i processi distorti di ricerca.[23] Le persone variano nella loro capacità di difendere le loro opinioni dagli attacchi esterni in relazione alla esposizione selettiva. La esposizione selettiva avviene quando gli individui cercano informazioni che sono coerenti, piuttosto che in contraddizione, con le loro credenze personali.[24] Un esperimento ha esaminato fino a che punto le persone rifiutano gli argomenti che contraddicono le loro credenze personali.[23] Le persone con un alto livello di autostima vanno più facilmente in cerca di opinioni che contraddicono le loro posizioni in modo da formarsi un’opinione. Le persone con bassi livelli di fiducia in sé stessi non cercano informazioni contraddittorie ma preferiscono quelle che confermano le loro posizioni. La gente genera e valuta prove che sono distorte verso le loro credenze e opinioni.[25] Maggiori livelli di fiducia in sé stessi abbassano la preferenza verso informazioni a sostegno delle proprie credenze.
In un altro esperimento è stato dato ai partecipanti il compito di scoprire delle complesse regole riguardanti il movimento di oggetti simulati al computer.[26] Gli oggetti sullo schermo del computer seguivano specifiche leggi che i partecipanti dovevano capire. Così i partecipanti potevano “sparare” agli oggetti per verificare le loro ipotesi. Malgrado molti tentativi, lungo una sessione di dieci ore, nessuno dei partecipanti riuscì a capire le regole del sistema. Tipicamente cercavano di confermare piuttosto che falsificare le loro ipotesi ed erano riluttanti a considerare delle alternative. Persino dopo aver visto prove oggettive che contraddicevano le loro ipotesi di lavoro, spesso continuavano a fare gli stessi tentativi. A qualche partecipante è stato insegnato il modo corretto di verifica delle ipotesi ma queste istruzioni non hanno quasi avuto alcun effetto.[26]
Interpretazione di informazioni
[modifica | modifica wikitesto]I bias di conferma non si limitano alla acquisizione di informazioni. Anche se due individui hanno la stessa informazione, il modo in cui la interpretano può essere parziale.
Un team dell'Università di Stanford ha condotto un esperimento coinvolgendo partecipanti che avevano opinioni forti sulla pena capitale, metà a favore e metà contro.[27][28] Ogni partecipante ha letto le descrizioni di due studi: un confronto tra stati degli Stati Uniti con e senza la pena di morte, e un confronto dei tassi di omicidio in uno stato prima e dopo l'introduzione della pena di morte. Dopo aver letto una breve descrizione di ciascun studio, ai partecipanti è stato chiesto se le loro opinioni fossero cambiate. Successivamente, hanno letto un resoconto più dettagliato della procedura di ciascuno studio e dovevano valutare se la ricerca fosse ben condotta e convincente.[27] In realtà, gli studi erano fittizi. A metà dei partecipanti è stato detto che un tipo di studio supportava l'effetto deterrente e l'altro lo smentiva, mentre per gli altri partecipanti le conclusioni erano invertite.[27][28]
I partecipanti, sostenitori o oppositori, hanno riferito di aver leggermente modificato le loro opinioni nella direzione del primo studio che avevano letto. Una volta lette le descrizioni più dettagliate dei due studi, quasi tutti sono tornati alla loro convinzione originale indipendentemente dalle prove fornite, evidenziando i dettagli che supportavano il loro punto di vista e ignorando tutto ciò che era contrario. I partecipanti hanno descritto gli studi che supportavano la loro visione preesistente come superiori a quelli che la contraddicevano, in modo dettagliato e specifico.[27][29] Scrivendo riguardo a uno studio che sembrava minare l'effetto deterrente, un sostenitore della pena di morte ha scritto: "La ricerca non ha coperto un periodo di tempo abbastanza lungo," mentre il commento di un oppositore sullo stesso studio ha detto: "Non è stata presentata alcuna prova forte per contraddire i ricercatori."[27] I risultati hanno illustrato che le persone stabiliscono standard di evidenza più elevati per le ipotesi che vanno contro le loro aspettative attuali. Questo effetto, noto come "bias di disconferma", è stato supportato da altri esperimenti.[30]
L'interpretazione di parte non è limitata a temi emotivamente significativi. In un altro esperimento, ai partecipanti è stata raccontata una storia su un furto. Dovevano valutare l'importanza delle prove di affermazioni a favore o contro la responsabilità di un determinato individuo. Quando ipotizzavano la colpevolezza di quella persona, valutavano le affermazioni a sostegno di tale ipotesi come più importanti rispetto alle affermazioni contrastanti.[31]
Ricordo di informazioni
[modifica | modifica wikitesto]Le persone possono ricordare selettivamente le prove per rafforzare le loro aspettative, anche se raccolgono e interpretano le prove in modo neutrale. Questo effetto è chiamato "richiamo selettivo", "memoria confermativa" o "memoria con accesso distorto".[32] Le teorie psicologiche differiscono nelle loro previsioni riguardo al richiamo selettivo. La teoria dello schema prevede che le informazioni che corrispondono alle aspettative precedenti saranno memorizzate e richiamate più facilmente rispetto alle informazioni che non corrispondono.[33] Alcuni approcci alternativi affermano che le informazioni inaspettate si distinguono e sono quindi memorabili.[33] Le previsioni di entrambe queste teorie sono state confermate in diversi contesti sperimentali, senza che una teoria prevalga in modo assoluto.[34]
Fenomeni associati
[modifica | modifica wikitesto]Polarizzazione delle opinioni
[modifica | modifica wikitesto]Persistenza di credenze screditate
[modifica | modifica wikitesto]«Le credenze possono sopravvivere a potenti sfide logiche o empiriche. Esse possono sopravvivere, e persino essere rafforzate, da prove che, per osservatori più distaccati, le dovrebbero indebolire. Queste credenze possono anche sopravvivere alla distruzione totale delle loro basi probatorie originali.»
Il bias di conferma può essere usato per spiegare il motivo per cui alcune credenze persistono quando si rimuove la loro evidenza iniziale.[36] Questo effetto di persistenza delle convinzioni è stato dimostrato da una serie di esperimenti utilizzando quello che viene chiamato il debriefing paradigm: i partecipanti leggono prove false per una ipotesi e viene misurato il cambiamento delle loro opinioni, poi viene loro mostrata la falsità delle prove e vengono misurate ancora le loro opinioni per verificare se le loro credenze tornano al livello precedente.[35] Un risultato usuale è che almeno alcune delle convinzioni iniziali rimangono anche dopo un debriefing completo.[37]
In un esperimento, i partecipanti dovevano distinguere tra lettere di suicidi veri e falsi. Il feedback è stato casuale: ad alcuni è stato detto che avevano distinto bene, mentre ad altri che l’avevano fatto male. Anche dopo che tutto è stato completamente acclarato, i partecipanti sono rimasti influenzati dal feedback. Pensavano di aver svolto quel tipo di compito meglio o peggio, rispetto alla media, a seconda di ciò che era stato loro detto inizialmente.[35]
In un altro studio, i partecipanti hanno letto le valutazioni delle prestazioni lavorative di due vigili del fuoco insieme con le loro risposte a un test di avversione al rischio.[35] Questi dati fittizi sono stati organizzati per mostrare o un'associazione negativa o positiva: ad alcuni partecipanti è stato detto che il vigile del fuoco che era più disposto al rischio aveva fatto meglio, mentre ad altri è stato detto che aveva fatto meno bene rispetto al collega che era avverso al rischio.[38] Anche se questi due casi fossero stati veri, sarebbero stati poveri di prove dal punto di vista scientifico per una conclusione circa i vigili del fuoco in generale. Tuttavia i partecipanti li hanno trovati soggettivamente convincenti.[38] Quando è stato rivelato che i casi di studio erano fittizi, la convinzione dei partecipanti sull'esistenza di un nesso è diminuita, ma circa metà dell’effetto originale rimaneva.[35] Le interviste di follow-up hanno stabilito che i partecipanti avevano capito e preso sul serio il debriefing e sembravano fidarsi di quanto esposto ma consideravano le informazioni screditate come irrilevanti per le loro credenze personali.[38]
Il continued influence effect è la tendenza a credere a false informazioni precedentemente apprese anche dopo che sono state corrette. La falsa informazione può anche influenzare deduzioni fatte dopo il verificarsi della correzione.
Preferenza per le prime informazioni ricevute
[modifica | modifica wikitesto]Associazione illusoria di eventi disconnessi
[modifica | modifica wikitesto]La correlazione illusoria è la tendenza a vedere correlazioni inesistenti in un gruppo di dati.[39] Questa tendenza è stata dimostrata per la prima volta in una serie di esperimenti nei tardi anni 1960.[40] In un esperimento i partecipanti hanno letto un set di casi di studio psichiatrici, incluse le risposte al Test di Rorschach. I partecipanti hanno riferito che gli uomini omosessuali del gruppo erano più propensi a segnalare di aver visto, nelle macchie di inchiostro, natiche, ani o figure dall'ambiguo significato sessuale. In realtà i casi di studio fittizi erano stati costruiti in modo che gli uomini omosessuali non fossero più propensi a segnalare questo tipo di immagini o, in una delle versioni dell'esperimento, fossero meno propensi a segnalarlo rispetto agli uomini eterosessuali.[39] In un'indagine, un gruppo di psicoanalisti esperti hanno evidenziato lo stesso tipo di associazioni illusorie con l'omosessualità.[39][40]
Un altro studio ha registrato i sintomi, in funzione del clima, riferiti da pazienti artritici lungo un periodo di 15 mesi. Quasi tutti i pazienti hanno riferito che i loro sintomi erano correlati con le condizioni climatiche nonostante la correlazione reale fosse pari a zero.[41]
Questo effetto è una specie di interpretazione distorta, nella quale prove oggettivamente neutre o sfavorevoli sono interpretate per confermare le credenze preesistenti. È anche correlato con le distorsioni nel comportamento di verifica delle ipotesi.[42] Nel giudicare se due eventi, come dolori e cattivo tempo, sono correlati, la gente si affida molto al numero di casi "positivo-positivo" (in questo esempio sono le occasioni di dolore e cattivo tempo) e prestano poca attenzione alle altre combinazioni (di non dolore e/o bel tempo).[43] Ciò è analogo alla dipendenza alle risposte positive nella verifica delle ipotesi.[42] Può anche riflettere il ricordo selettivo, per quelle persone può essere sensato correlare due eventi perché è più facile ricordare le volte in cui successero insieme.[42]
Gli studi
[modifica | modifica wikitesto]La ricerca di Peter Cathcart Wason sull'esame delle ipotesi
[modifica | modifica wikitesto]La critica di Klayman e Ha
[modifica | modifica wikitesto]Conseguenze
[modifica | modifica wikitesto]Impatto nell'attività finanziaria
[modifica | modifica wikitesto]Bias di conferma possono condurre investitori all'essere troppo fiduciosi e a ignorare le prove che le loro strategie genereranno perdite.[44] In studi dei mercati per la predizione del risultato di elezioni politiche (Election Stock Market), gli investitori generarono maggiori profitti se resistenti ai bias. Per esempio, partecipanti che interpretarono la performance di un candidato durante un dibattito in maniera neutrale piuttosto che di parte di norma ebbero più successo nel generare profitti.[45] Per combattere il fenomeno del bias di conferma gli investitori possono adottare un punto di vista contrario "ragionando per assurdo".[46] In una delle tecniche disponibili in questo contesto, un investitore immagina che i propri investimenti sono precipitati di valore e deve quindi chiedersi come questo sia potuto accadere.[44]
Nella salute fisica e mentale
[modifica | modifica wikitesto]Raymond Nickerson, psicologo, considera i bias di conferma come la causa delle inefficaci procedure mediche usate nei secoli precedenti l'arrivo della medicina scientifica.[47] Se un paziente recuperava la salute per esempio, le autorità mediche del tempo consideravano il trattamento adottato come efficace, senza considerare spiegazioni alternative quali la possibilità che la malattia avesse seguito un decorso naturale.[47] Bias di assimilazione sono fattori nell'interesse moderno per la medicina alternativa, i proponenti della quale vengono persuasi da prove positive aneddotiche ma al tempo stesso considerano prove scientifiche in maniera ipercritica.[48][49][50]
La terapia cognitiva venne sviluppata da Aaron T. Beck negli anni sessanta e nel frattempo è divenuta un metodo molto popolare.[51] Secondo Beck, il processare informazioni in maniera non-imparziale è un fattore nella depressione.[52] Il suo approccio educa le persone a trattare prove in maniera imparziale piuttosto che usarle per rinforzare in maniera selettiva la propria negatività. Anche ansia, fobia e ipocondria sono state dimostrate coinvolgere bias di conferma nei confronti di informazioni riguardanti una qualche forma di minaccia.[53]
Nella politica
[modifica | modifica wikitesto]Nel paranormale
[modifica | modifica wikitesto]Uno dei fattori che contribuiscono al fascino della precognizione è che colui che ascolta i pronostici applica un bias di conferma che modella le asserzioni del chiaroveggente alla vita del soggetto.[54] Facendo un grande numero di asserzioni ambigue in ogni seduta, il chiaroveggente fornisce al cliente molte opportunità per trovare agganci alla propria vita. Questa è una delle tecniche della lettura a freddo con la quale un chiaroveggente può fornire un pronostico soggettivamente impressionante senza avere conoscenze a priori del cliente.[54] L'investigatore James Randi ha confrontato la trascrizione di una seduta di chiaroveggenza con la relazione redatta dal cliente riguardante le dichiarazioni del chiaroveggente nella stessa seduta, dimostrando come il cliente avesse una memoria fortemente selettiva ricordandosi in particolar modo le asserzioni del chiaroveggente che effettivamente lo riguardavano.[55]
Come caso lampante di bias di conferma nel mondo reale, Nickerson menziona la piramidologia numerologica: la pratica del trovare significato nelle proporzioni delle piramidi egizie.[56] È possibile effettuare molte misure lineari, per esempio, della Piramide di Cheope e vi sono molti modi per combinarle e manipolarle. È quindi quasi inevitabile che delle persone che studiano queste cifre in maniera selettiva troveranno delle corrispondenze apparentemente impressionanti, per esempio con le dimensioni della Terra[56] o con quelle di qualsiasi altro ente o soggetto.
Nella psicologia
[modifica | modifica wikitesto]Gli psicologi sociali hanno identificato due tendenze nella maniera in cui le persone cercano o interpretano informazioni riguardanti sé stessi. L'auto-verifica (Self-verification) è il desiderio di rinforzare l'immagine di sé stessi, l'auto-accrescimento (Self-enhancement) è il desiderio di cercare giudizi positivi esterni. I bias di conferma vanno a servire ambedue i desideri.[57] In esperimenti, soggetti a cui vengono forniti giudizi che entrano in conflitto con l'immagine che hanno di sé stessi hanno meno probabilità di considerarli o di ricordarli rispetto a quando ottengono osservazioni che consentono invece l'auto-verifica.[58][59][60] I soggetti riducono l'impatto di tali informazioni interpretandole come non affidabili.[58][61][62] Esperimenti simili hanno trovato una preferenza per giudizi positivi e per le persone che li forniscono, rispetto a giudizi negativi.[57]
Nella pratica forense
[modifica | modifica wikitesto]Nel 2013 Kassin, Dror e Kuckucka hanno analizzato l'influenza persuasiva che il bias di conferma può avere in ambito forense non solo rispetto ai testimoni e giurati ma anche sui giudici professionisti, e hanno coniato il termine specifico forensic confirmation bias (cioè la tendenza nel processo alla conferma). Un classico esempio è evidenziato nella pellicola cinematografica La parola ai giurati, in cui la trama si svolge attorno al tentativo di smascherare questo bias nell'ambito di un processo per omicidio.[63]
Note
[modifica | modifica wikitesto]- ^ (EN) Raymond S. Nickerson, Confirmation Bias: A Ubiquitous Phenomenon in Many Guises, in Review of General Psychology, vol. 2, n. 2, 1998-06, pp. 175–220, DOI:10.1037/1089-2680.2.2.175. URL consultato il 3 giugno 2022.
- ^ Scott Plous, The psychology of judgment and decision making, McGraw-Hill, 1993, ISBN 0-07-050477-6, OCLC 26931106. URL consultato il 3 giugno 2022.
- ^ P. C. Wason, On the Failure to Eliminate Hypotheses in a Conceptual Task, in Quarterly Journal of Experimental Psychology, vol. 12, n. 3, 1960, pp. 129–140, DOI:10.1080/17470216008416717, ISSN 0033-555X .
- ^ John Darley, Paget Gross, A hipothesys-confirming bias in labeling effects, 1983, Journal of Personality and Social Psychology, 44, 20-33.
- ^ Rüdiger Pohl, Cognitive Illusions, Hove, East Sussex, UK, Psychology Press, 2004, ISBN 978-1-84169-351-4.
- ^ Andreas Hergovich, Reinhard Schott e Christoph Burger, Biased Evaluation of Abstracts Depending on Topic and Conclusion: Further Evidence of a Confirmation Bias Within Scientific Psychology, in Current Psychology, vol. 29, n. 3, 2010, pp. 188–209, DOI:10.1007/s12144-010-9087-5, ISSN 1046-1310 .
- ^ Scott O. Lilienfeld, Rachel Ammirati e Kristin Landfield, Giving Debiasing Away: Can Psychological Research on Correcting Cognitive Errors Promote Human Welfare?, in Perspectives on Psychological Science, vol. 4, n. 4, 2009, pp. 390–398, DOI:10.1111/j.1745-6924.2009.01144.x, ISSN 1745-6916 .
- ^ (EN) Jane Risen, Thomas Gilovich, (2007), "Informal Logical Fallacies", in Robert J. Sternberg, Henry L. Roediger III, Diane F. Halpern, Critical Thinking in Psychology, Cambridge University Press, pp. 110–130, ISBN 978-0-521-60834-3, OCLC 69423179.
- ^ Il "bias di assimilazione" è un altro termine usato per l'interpretazione di parte di prove. Risen, Gilovich, 2007, p. 113.
- ^ (EN) Jason Zweig, How to Ignore the Yes-Man in Your Head, in Wall Street Journal, Dow Jones & Company, 19 novembre 2009. URL consultato il 13 giugno 2010.
- ^ Nickerson, 1998, pp. 177–78.
- ^ a b c Kunda, 1999, pp. 112–15.
- ^ a b Baron, 2000, pp. 162–64.
- ^ Kida, 2006, pp. 162–65.
- ^ (EN) Patricia Devine, Edward R. Hirt e Elizabeth M. Gehrke, Diagnostic and confirmation strategies in trait hypothesis testing, in Journal of Personality and Social Psychology, 58 (6), American Psychological Association, 1990, pp. 952–63, DOI:10.1037/0022-3514.58.6.952, ISSN 1939-1315 .
- ^ (EN) Yaacov Trope e Miriam Bassok, Confirmatory and diagnosing strategies in social information gathering, in Journal of Personality and Social Psychology, 43 (1), American Psychological Association, 1982, pp. 22–34, DOI:10.1037/0022-3514.43.1.22, ISSN 1939-1315 .
- ^ (EN) Joshua Klayman e Young-Won Ha, Confirmation, Disconfirmation and Information in Hypothesis Testing (PDF), in Psychological Review, 94 (2), American Psychological Association, 1987, pp. 211–28, DOI:10.1037/0033-295X.94.2.211, ISSN 0033-295X . URL consultato il 14 agosto 2009.
- ^ a b Oswald Grosjean, 2004, pp. 82–83.
- ^ (EN) Ziva Kunda, G.T. Fong, R. Sanitoso e E. Reber, Directional questions direct self-conceptions, in Journal of Experimental Social Psychology, vol. 29, Society of Experimental Social Psychology, 1993, pp. 62–63, DOI:10.1006/jesp.1993.1004, ISSN 0022-1031 . via Fine, 2006, pp. 63–65.
- ^ a b (EN) E. Shafir, Choosing versus rejecting: why some options are both better and worse than others, in Memory and Cognition, vol. 21, 1993, pp. 546–56, DOI:10.3758/bf03197186, PMID (4) 8350746 (4). via Fine, 2006, pp. 63–65.
- ^ (EN) Mark Snyder e William B. Swann, Jr., Hypothesis-Testing Processes in Social Interaction, in Journal of Personality and Social Psychology, 36 (11), American Psychological Association, 1978, pp. 1202–12, DOI:10.1037/0022-3514.36.11.1202. via Poletiek, 2001, p. 131.
- ^ a b Kunda, 1999, pp. 117–18.
- ^ a b (EN) D. Albarracin e A.L. Mitchell, The Role of Defensive Confidence in Preference for Proattitudinal Information: How Believing That One Is Strong Can Sometimes Be a Defensive Weakness, in Personality and Social Psychology Bulletin, 30 (12), 2004, pp. 1565–84, DOI:10.1177/0146167204271180.
- ^ (EN) P. Fischer, Julia K. Fischer, Nilüfer Aydin e Dieter Frey, Physically Attractive Social Information Sources Lead to Increased Selective Exposure to Information, in Basic and Applied Social Psychology, 32 (4), 2010, pp. 340–47, DOI:10.1080/01973533.2010.519208.
- ^ (EN) K. E. Stanovich, R. F. West e M. E. Toplak, Myside Bias, Rational Thinking, and Intelligence, in Current Directions in Psychological Science, 22 (4), 2013, pp. 259–64, DOI:10.1177/0963721413480174.
- ^ a b (EN) Clifford Mynatt, Michael E. Doherty e Ryan D. Tweney, Consequences of confirmation and disconfirmation in a simulated research environment, in Quarterly Journal of Experimental Psychology, 30 (3), 1978, pp. 395–406, DOI:10.1080/00335557843000007.
- ^ a b c d e Charles G. Lord, Lee Ross e Mark R. Lepper, Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence., in Journal of Personality and Social Psychology, vol. 37, n. 11, 1979, pp. 2098–2109, DOI:10.1037/0022-3514.37.11.2098, ISSN 1939-1315 .
- ^ a b Jonathan Baron, Thinking and Deciding, Cambridge, Cambridge University Press, 28 dicembre 2000, ISBN 978-0-521-65030-4.
- ^ Stuart A. Vyse, Believing in Magic, New York, NY, Oxford University Press, USA, 2000, ISBN 978-0-19-513634-0.
- ^ Charles S. Taber e Milton Lodge, Motivated Skepticism in the Evaluation of Political Beliefs, in American Journal of Political Science, vol. 50, n. 3, 2006, pp. 755–769, DOI:10.1111/j.1540-5907.2006.00214.x, ISSN 0092-5853 .
- ^ V. Gadenne e M. Oswald, Entstehung und Veränderung von Bestätigungstendenzen beim Testen von Hypothesen [Formation and alteration of confirmatory tendencies during the testing of hypotheses], in Zeitschrift für Experimentelle und Angewandte Psychologie, vol. 33, 1986, pp. 360–374, ISBN 978-1-84169-351-4. Ospitato su Oswald & Grosjean 2004, p. 89.
- ^ Reid Hastie e Bernadette Park, The relationship between memory and judgment depends on whether the judgment task is memory-based or on-line, in David L. Hamilton (a cura di), Social cognition: key readings, New York, Psychology Press, 2005, p. 394, ISBN 978-0-86377-591-8, OCLC 55078722.
- ^ a b Margit E. Oswald, Grosjean, Stefan, Confirmation bias, in Pohl, Rüdiger F. (a cura di), Cognitive illusions: A handbook on fallacies and biases in thinking, judgement and memory, Hove, UK, Psychology Press, 2004, pp. 79–96, ISBN 978-1-84169-351-4, OCLC 55124398.
- ^ Charles Stangor e David McMillan, Memory for expectancy-congruent and expectancy-incongruent information: A review of the social and social developmental literatures, in Psychological Bulletin, vol. 111, n. 1, 1992, pp. 42–61, DOI:10.1037/0033-2909.111.1.42.
- ^ a b c d e Lee Ross & Craig A. Anderson, Judgment under uncertainty: Heuristics and biases (capitolo: Shortcomings in the attribution process: On the origins and maintenance of erroneous social assessments), pp. 129–52.
- ^ Nickerson, 1998, p. 187.
- ^ Kunda, 1999, p. 99.
- ^ a b c Fine, 2006, pp. 66–70.
- ^ a b Plous, 1993, pp. 164–66.
- ^ (EN) D. A. Redelmeir e Amos Tversky, Proceedings of the National Academy of Sciences, in On the belief that arthritis pain is related to the weather, vol. 93, n. 7, 1996, pp. 2895–96, DOI:10.1073/pnas.93.7.2895. via Kunda, 1999, p. 127.
- ^ a b c Kunda, 1999, pp. 127–30.
- ^ Plous, 1993, pp. 162–64.
- ^ a b Pompian,2006.
- ^ (EN) Denis J. Hilton, The psychology of financial decision-making: Applications to trading, dealing, and investment analysis, in Journal of Behavioral Finance, vol. 2, n. 1, Institute of Behavioral Finance, 2001, pp. 37–39, DOI:10.1207/S15327760JPFM0201_4, ISSN 1542-7579 .
- ^ (EN) David Krueger, John David Mann, The Secret Language of Money: How to Make Smarter Financial Decisions and Live a Richer Life, McGraw Hill Professional, 2009, pp. 112–113, ISBN 978-0-07-162339-1, OCLC 277205993.
- ^ a b (EN) Raymond S. Nickerson, "Confirmation Bias; A Ubiquitous Phenomenon in Many Guises", in Review of General Psychology, vol. 2, n. 2, Educational Publishing Foundation, 1998, pp. 175–220, ISBN 978-0-471-74517-4, ISSN 1089-2680 .
- ^ Ben Goldacre, "Bad Science", Londra, Fourth Estate, 2008, ISBN 978-0-00-724019-7, OCLC 259713114.
- ^ (EN) Simon Singh, Edzard, Ernst, "Trick or Treatment?: Alternative Medicine on Trial", Londra, Bantam, 2008, pp. 287–288, ISBN 978-0-593-06129-9.
- ^ (EN) Kimball Atwood, "Naturopathy, Pseudoscience, and Medicine: Myths and Fallacies vs Truth", in Medscape General Medicine, vol. 6, n. 1, 2004, p. 33.
- ^ (EN) Michael Neenan, Windy Dryden, "Cognitive therapy: 100 key points and techniques", Psychology Press, 2004, p. ix, ISBN 978-1-58391-858-6, OCLC 474568621.
- ^ (EN) Ivy-Marie Blackburn, Kate M. Davidson, "Cognitive therapy for depression & anxiety: a practitioner's guide", 2ª ed., Wiley-Blackwell, 1995, p. 19, ISBN 978-0-632-03986-9, OCLC 32699443.
- ^ (EN) Allison G. Harvey, Edward Watkins, Warren Mansell, Cognitive behavioural processes across psychological disorders: a transdiagnostic approach to research and treatment, Oxford University Press, 2004, pp. 172-173, 176, ISBN 978-0-19-852888-3, OCLC 602015097.
- ^ a b (EN) Jonathan C. Smith, "Pseudoscience and Extraordinary Claims of the Paranormal: A Critical Thinker's Toolkit", John Wiley and Sons, 2009, pp. 149–151, ISBN 978-1-4051-8122-8, OCLC 319499491.
- ^ (EN) James Randi, "James Randi: psychic investigator", Boxtree, 1991, pp. 58–62, ISBN 978-1-85283-144-8, OCLC 26359284.
- ^ a b (EN) Raymond S. Nickerson, Confirmation Bias; A Ubiquitous Phenomenon in Many Guises, in Review of General Psychology, vol. 2, n. 2, Educational Publishing Foundation, 1998, pp. 175–220, DOI:10.1037/1089-2680.2.2.175, ISSN 1089-2680 .
- ^ a b (EN) William B. Swann, Brett W. Pelham, Douglas S. Krull, Agreeable Fancy or Disagreeable Truth? Reconciling Self-Enhancement and Self-Verification, in Journal of Personality and Social Psychology, vol. 57, n. 5, American Psychological Association, 1989, pp. 782–791, DOI:10.1037/0022-3514.57.5.782, ISSN 0022–3514 , PMID 2810025.
- ^ a b (EN) William B. Swann, Stephen J. Read, Self-Verification Processes: How We Sustain Our Self-Conceptions, in Journal of Experimental Social Psychology, vol. 17, n. 4, Academic Press, 1981, pp. 351–372, DOI:10.1016/0022-1031(81)90043-3, ISSN 0022–1031 .
- ^ (EN) Amber L. Story, Self-Esteem and Memory for Favorable and Unfavorable Personality Feedback, in Personality and Social Psychology Bulletin, vol. 24, n. 1, Society for Personality and Social Psychology, 1998, pp. 51–64, DOI:10.1177/0146167298241004, ISSN 1552-7433 .
- ^ (EN) Michael J. White, Daniel R. Brockett, Belinda G. Overstreet, Confirmatory Bias in Evaluating Personality Test Information: Am I Really That Kind of Person?, in Journal of Counseling Psychology, vol. 40, n. 1, American Psychological Association, 1993, pp. 120–126, DOI:10.1037/0022-0167.40.1.120, ISSN 0022-0167 .
- ^ (EN) William B. Swann, Stephen J. Read, Acquiring Self-Knowledge: The Search for Feedback That Fits, in Journal of Personality and Social Psychology, vol. 41, n. 6, American Psychological Association, 1981, pp. 1119–1128, ISSN 0022–3514 .
- ^ (EN) J. Sidney Shrauger, Adrian K. Lund, Self-evaluation and reactions to evaluations from others, in Journal of Personality, vol. 43, n. 1, Duke University Press, 1975, pp. 94–108, DOI:10.1111/j.1467-6494.1975.tb00574, PMID 1142062.
- ^ A. Forza, G. Menegon, R. Ruminati, Il giudice emotivo. La decisione tra ragione ed emozione, Il Mulino, 2017, p. 162, ISBN 978-88-15-26747-4.
Bibliografia
[modifica | modifica wikitesto]- (EN) Michael M. Pompian, Behavioral finance and wealth management: how to build optimal portfolios that account for investor biases, John Wiley and Sons, 2006, ISBN 978-0-471-74517-4, OCLC 61864118.
- (EN) Lee Ross, Craig A. Anderson, Judgment under uncertainty: Heuristics and biases, Cambridge University Press, 1982, ISBN 978-0-521-28414-1.
- (EN) Craig A. Anderson, Mark R. Lepper, Lee Ross, Perseverance of Social Theories: The Role of Explanation in the Persistence of Discredited Information, in Journal of Personality and Social Psychology, vol. 39, American Psychological Association, 1980, DOI:10.1037/h0077720, ISSN 0022-3514 .
Voci correlate
[modifica | modifica wikitesto]Collegamenti esterni
[modifica | modifica wikitesto]- (EN) Bettina J. Casad e J.E. Luebering, confirmation bias, su Enciclopedia Britannica, Encyclopædia Britannica, Inc.