Ciąg dalszy artykułu: Błędy poznawcze
Lista błędów poznawczych
Błędy poznawcze to tendencje do zniekształcania rzeczywistości, które często wynikają z uproszczeń, które nasz umysł stosuje w celu przyspieszenia procesu decyzyjnego. Te logiczne skróty, nazywane heurystykami, mogą prowadzić do szeregów błędów w naszym osądzie. Na przykład, istnieje tendencja do oceniania szkodliwych działań jako gorsze i bardziej niemoralne niż są w rzeczywistości, co jest wynikiem zniekształcenia poznawczego znanego jako efekt negatywności. Inne błędy, takie jak iluzja kontroli, mogą prowadzić ludzi do przypisywania większego prawdopodobieństwa zdarzeniom, które uważają za najbardziej prawdopodobne.
Podobnie, błąd atrybucji prowadzi do tendencji do traktowania naszej wiedzy na temat innych jako głębszej i bardziej dokładnej niż w rzeczywistości. Często zapominamy informacje, które kwestionują nasze przekonania, podczas gdy zapamiętujemy te, które je potwierdzają, co jest wynikiem tzw. efektu potwierdzenia. Tego typu błędy mogą mieć szkodliwe skutki, prowadząc do nieodpowiednich decyzji i zachowań.
Na naszej stronie znajdziesz listę błędów poznawczych, która pomoże Ci lepiej zrozumieć, jak te procesy wpływają na nasze myślenie i zachowanie. Pamiętaj, że zrozumienie tych błędów jest pierwszym krokiem do przeciwdziałania im.
Przez lata liczne eksperymenty konsekwentnie potwierdzały istnienie różnych błędów poznawczych. Aby lepiej zrozumieć te zjawiska, zanurzmy się głębiej w każde z nich. Zapraszamy do zapoznania się z naszą listą błędów poznawczych:
Podstawowy błąd atrybucji
Gdy obserwujemy jakieś zachowanie, możemy je wyjaśnić odwołując się do dwóch kategorii informacji: informacji związanych z osobą lub informacji związanych z sytuacją, w której osoba działa. W ujęciu Heidera (1958), kiedy odnosimy się do osoby, dokonujemy atrybucji wewnętrznych lub dyspozycyjnych, a kiedy odnosimy się do sytuacji, dokonujemy atrybucji zewnętrznych lub sytuacyjnych.
Na przykład, gdy osoba z którą mamy się spotkać po raz pierwszy spóźnia się, możemy to wyjaśnić albo atrybucją wewnętrzną (ta osoba jest niewiarygodna) albo atrybucją zewnętrzną (np. ta osoba spóźnia się, bo po drodze były prace drogowe). Heider był pierwszym, który systematycznie zidentyfikował i przeanalizował tę tendencję. Od tego czasu określa się to zjawisko jako „podstawowy błąd atrybucji„.
Wolimy dokonywać więcej atrybucji wewnętrznych niż zewnętrznych (Rossa, Amabile i Steinmetza 1977). Na przykład w badaniach Rossa, Amabile i Steinmetza (1977) w jednym z eksperymentów zainicjonowano grę „kto wie, wygrywa”. Uczestnicy częściej postrzegali osoby zadające trudne pytania jako mądrzejsze niż te, które na nie odpowiadają – pomimo trudności pytań.
W innym wariancie tych badań uczestnicy zostali poproszeni o ocenę rzeczywistych postaw tych, którzy napisali eseje za lub przeciw Fidelowi Castro. Zignorowali oni fakt, że niektórzy nie mieli wyboru w pisaniu eseju, zamiast tego przypisując opinię tekstowi. Mimo, że badani zostali poinformowani, że badacz narzucił im typ eseju, nie wahali się wywnioskować prawdziwej opinii danej osoby na podstawie tego, co napisali w swoich esejach. Najwyraźniej istnieje silna preferencja dla atrybucji wewnętrznych nad zewnętrznymi – często kosztem zrozumienia pełnego obrazu drugiego Człowieka.
Efekt (błąd) aktora-obserwatora
Efekt (błąd) aktora-obserwatora rzuca światło na naszą skłonność do przypisywania sytuacyjnych wyjaśnień dla naszego własnego zachowania, jednocześnie przypisując działania innych przyczynom dyspozycyjnym. Pierwsze badanie, które podkreśliło ten fakt, zostało przeprowadzone przez Nisbetta i współpracowników w 1973 roku.
Badacze poprosili studentów Uniwersytetu Yale o napisanie czterech akapitów wyjaśniających dlaczego kochają swoje dziewczyny, dlaczego wybrali konkretną specjalizację uniwersytecką, a także dlaczego ich najlepszy przyjaciel kocha swoją dziewczynę i motywację wyboru jego specjalizacji. Następnie poproszono ich o wyobrażenie sobie siebie na miejscu najlepszego przyjaciela i opisanie z jego punktu widzenia, dlaczego wybrali dziewczynę i obecną specjalizację.
W ten sposób badacze wykazali różnicę między spostrzeganiem naszej własnej motywacji a motywacją innych. Ujawnili oni, że studenci tłumaczyli swoje własne wybory odwołując się do czynników zewnętrznych wobec nich (na przykład cech przyjaciela i korzyści płynących ze specjalizacji), podczas gdy wybory najlepszego przyjaciela wyjaśniali odwołując się do cech osobowości.
W badaniu Taylor i Koivumaki (1976) poprosili żonatych studentów z Uniwersytetu Harvarda o wypełnienie kwestionariusza, który zawierał pozytywne zachowania (jak „prawić komplementy”, „prowadzić ciekawą dyskusję”) i negatywne zachowania („kłócić się z kimś”, „być niegrzecznym”). Uczestnicy zostali poproszeni o wyobrażenie sobie, że takie zachowania są wykonywane przez znajomego, przez najlepszego przyjaciela, przez współmałżonka i przez nich samych oraz o ocenę ich na wymiarze wewnętrzno-zewnętrznym.
Wyniki pokazały, że wszystkie osoby były uważane za bardziej odpowiedzialne za zachowania pozytywne niż negatywne, a im wyższy stopień bliskości z ocenianą osobą, tym większa tendencja do pomniejszania osobistej odpowiedzialności za zachowania negatywne. Zgodnie z efektem aktora-obserwatora, wyjaśniając własne zachowania, badani dokonywali więcej samoatrybucji zewnętrznych niż w przypadku zachowań współmałżonka.
Lista błędów poznawczych c.d.
Błąd egocentrycznego uprzedzenia
Wielu z nas cierpi na zjawisko znane jako egocentryczne uprzedzenia, w którym przypisujemy nasze sukcesy czynnikom wewnętrznym, a nasze niepowodzenia sytuacjom zewnętrznym. Badania na ten temat ujawniły szeroki zakres różnic geograficznych, przy czym Amerykanie mają większą tendencję do popełniania tego błędu. Natomiast w Japonii i Chinach dowody wskazują na bardziej pokorne podejście polegające na przypisywaniu sukcesów pomocy innych i braniu osobistej odpowiedzialności za swoje niedociągnięcia.
Najbardziej dominującym uzasadnieniem tego psychologicznego zjawiska jest to, że pozwala nam zachować nasz obraz siebie i poczucie ego. Na przykład, gdy nie zdamy egzaminu, możemy myśleć, że był on zbyt trudny lub że nie czuliśmy się dobrze, podczas gdy inni studenci, którzy nie zdali, nie nauczyli się wystarczająco dużo. Metaanaliza 266 badań nad egocentrycznym uprzedzeniem ujawniła, że jest ono najbardziej rozpowszechnione w Stanach Zjednoczonych, a następnie w Kanadzie, Australii, Nowej Zelandii, Afryce, Europie Wschodniej i Rosji (Aronson, Wilson, Akert, 1998). Za to w Japonii i Chinach psychologowie stwierdzili odwrotną tendencję, którą nazwali efektem skromności.
Efekt fałszywego konsensusu
Efekt fałszywego konsensusu – ukuty przez Rossa i jego współpracowników – opisuje ludzką tendencję do przeceniania powszechności naszych osobistych przekonań, perspektyw i zachowań (Coleman, 2018). Sportowcy, którzy zażywają narkotyki, mogą błędnie zakładać, że doping jest wszechobecny, podczas gdy osoby zażywające narkotyki mogą błędnie zakładać, że nadużywanie substancji kwitnie w całym społeczeństwie. Podobnie, zwolennicy konkretnego kandydata politycznego mogą fałszywie wierzyć, że ich opinie są powszechnie akceptowane. Co powoduje takie błędne pojmowanie? Po prostu pragnienie potwierdzenia tego, co myślimy, że wiemy, że jest prawdą.
Złudzenie ponadprzeciętności
Kolejny błąd poznawczy nazywany ” Złudzenie ponadprzeciętności” zyskał ogromną modę w świecie nauki, wskazując na naszą naturalną skłonność do postrzegania siebie jako lepszych od przeciętnej osoby z naszej grupy (np. społeczeństwa), jeśli chodzi o pożądane cechy i odwrotnie z niepożądanymi. Tutaj uważamy, że mamy ich mniej, niż występuje ich u innych osób.
Na przykład większość ludzi uważa, że są bardziej: a) cnotliwi, honorowi i moralni; b) zdolni, kompetentni i utalentowani; c) współczujący, wyrozumiali i sympatyczni (Balcetis, Dunning, Miller, 2008). Ten błąd poznawczy słynie z wyjaśnienia egocentryzmu.
Nastawienie to zmniejsza się, gdy porównujemy się z bliskimi, takimi jak przyjaciele lub rodzina. Jest ono również często określany jako „efekt Muhammada Alego” – tendencja do myślenia, że jesteśmy moralnie lepsi od większości innych, ale nie bardziej inteligentni.
Lista błędów poznawczych c.d.
Błąd poznawczy zjawiska „świętszego niż ty” (holier than thou)
Jeszcze bardziej uderzające jest zjawisko „świętszego niż ty” (holier than thou) , które jest szczególnie widoczne, gdy w grę wchodzą moralność i życzliwość. Przejawia się najsilniej w sytuacjach związanych z moralnością i altruizmem. Wydaje się, że popełniamy podwójny błąd, ponieważ z jednej strony wyolbrzymiamy stopień, w jakim będziemy zachowywać się moralnie, odwołując się do naszych wcześniejszych zachowań, a z drugiej strony uważamy, że jesteśmy lepsi od większości innych (Balcetis, Dunning, Miller, 2008)
Efekt reflektora
Efekt Reflektora przemawia do naszego wszechobecnego przekonania, że jesteśmy centralnym punktem obserwacji innych. Badania przeprowadzone przez Gilovicha i współpracowników wykazały, że ci, którzy założyli koszulkę z nieznaną osobą przez kilka minut, zauważyli, że więcej osób je zauważa, w porównaniu do koszulki z celebrytą faworyzowanym przez innych studentów (Gilovich, Medvec, Savitsky, 2000).
Jak zauważyli badacze, jesteśmy w centrum naszego wszechświata, ale mamy wrażenie, że jesteśmy również w centrum wszechświata innych osób. Niezależnie od tego, czy popełniamy błąd, czy zachowujemy się poprawnie, mamy tendencję do przeceniania stopnia, w jakim nasza obecność i działania zostały zauważone przez innych.
W serii pięciu eksperymentów Gilovich i współpracownicy wykazali, że studenci, którzy nosili przez kilka minut koszulki z postacią amerykańskiego piosenkarza, niezbyt wówczas popularnego, przeceniali liczbę osób, które zwracały uwagę na ich koszulki. Podobnie ci, którzy nosili koszulkę z postacią cenionego przez studentów celebryty, przeceniali liczbę kolegów, którzy zauważyli ich koszulki.
W innym warunku eksperymentalnym studenci prowadzili dyskusję grupową, na koniec której poproszono ich o odpowiedź na kilka pytań, takich jak: „Kto popełnił najwięcej błędów w wypowiedziach?”, „Kto zrobił najwięcej, aby posunąć się do przodu w dyskusji?”. Po raz kolejny studenci przeceniali uwagę, jaką otrzymywali od swoich partnerów w rozmowie. Interesującym wynikiem w tym badaniu było to, że efekt reflektora zmniejszał się, gdy ludzie nie zwracali tak dużej uwagi na cechę osobistą, która mogła być oceniana przez innych. Na przykład studenci, którzy nosili koszulkę przez dłuższy czas, zanim zobaczyli ją inni ludzie, nie przeceniali liczby osób, które zwracały uwagę na ich koszulki. Wyniki tego badania mogą stanowić punkt do refleksji dla nas wszystkich, którzy zbytnio obawiają się popełniania błędów lub zbytnio dbają o dobre wrażenie na innych.
Efekt halo / Efekt aureoli
Kiedy ludzie zawodzą, wyglądają nieudolnie. Kiedy odnoszą sukces, wyglądają dobrze, silnie, optymalnie. To jest tzw. „efekt halo”. Pierwsze wrażenie rzeczy tworzy kolejne wrażenia. Jeżeli firma wygląda nieudolnie, można założyć, że wszystko co robi jest nieudolne.
cyt. z książki Daniela Kahnemana „Pułapki myślenia”
Efekt halo jest ogólną tendencją poznawczą w kształtowaniu wrażenia. Można go zdefiniować jako tendencję sędziów do zakładania, że gdy dana osoba posiada pewne znane dobre (lub złe) cechy, to jej inne, niepowiązane i nieznane cechy również prawdopodobnie będą spójne, czyli dobre lub złe.
Na przykład – jednym z najczęstszych przypadków efektu aureoli jest sytuacja, w której ludzie mają tendencję do oceniania osób atrakcyjnych fizycznie jako posiadających lepsze cechy osobiste i intelektualne niż osoby nieatrakcyjne, mimo że nie mają żadnych istotnych bezpośrednich dowodów na temat tych wnioskowanych cech. Wydaje się, że atrakcyjność fizyczna tworzy „aureolę” nad ogólnymi wrażeniami na temat osoby badanej, skłaniając do pozytywnych ocen innych atrybutów. Efekt aureoli jest koncepcyjnie podobny do innych rodzajów konstruktywnych złudzeń poznawczych charakteryzujących się ogólną tendencją do potwierdzania, w tym na przykład efektów stereotypu, efektów prototypu i tym podobnych.
Termin „efekt halo” został po raz pierwszy zaproponowany przez Thorndike’a (1920). Koncepcja ta jest zasadniczo metaforą wywodzącą się ze średniowiecznych, renesansowych i bizantyjskich wyobrażeń religijnych, gdzie świecący krąg lub „aureola” jest przedstawiana jako unosząca się nad głowami świętych, wskazując na ich ogólną dobroć.
Istnieje również „negatywny efekt halo„, czasami znany jako efekt diabła lub efekt rogów. W przypadku negatywnego efektu aureoli pojedyncza negatywna cecha może powodować negatywne zmiany w kolejnych ocenach kształtujących wrażenie na niepowiązanych wymiarach. Ogólnie rzecz biorąc, efekty halo można zidentyfikować w sytuacjach, gdy obserwator dowiaduje się, że cel posiada atrybut A, a wiedza ta następnie wywołuje rozproszony pozytywny lub negatywny wpływ na kolejne oceny dotyczące nieznanych atrybutów B, C, D, itd.
Obwinianie ofiary – blaming the victim
Obwinianie ofiary odnosi się do tendencji do obarczania ofiar negatywnych wydarzeń odpowiedzialnością za ich skutki (Ryan, 1971). Choć obwinianie ofiary może występować w różnych sytuacjach, wydaje się szczególnie prawdopodobne w przypadku napaści seksualnych (Bieneck i Krahé, 2011). Napastnicy są zwykle uznawani za bardziej winnych napaści seksualnej niż ofiary (zob. Grubb i Harrower, 2008), ale ofiary również są obwiniane, w stopniu znacznie różniącym się w zależności od cech napaści, ofiary i osoby postrzegającej.
Obecnie istnieje niewielka zgodność co do predyktorów tego efektu (Grubb i Turner, 2012). W rzeczywistości, literatura dotycząca napaści seksualnych wydaje się oferować tylko jeden jasny wniosek: Ofiary nieznajomego gwałciciela są najmniej skłonne do obwiniania się za swoją sytuację; ofiary gwałtu małżeńskiego są znacznie bardziej skłonne do uznania siebie za winne (Ewoldt i in., 2000).
Bezpośrednie porównania między gwałtami na nieznajomych i gwałtami na znajomych zazwyczaj stwierdzają mniejszą winę w pierwszym przypadku (Grubb i Harrower, 2008). Co więcej, ofiary gwałtu pozamałżeńskiego są mniej obwiniane niż ofiary gwałtu małżeńskiego (Ferro et al., 2008). W miarę jak ofiara i napastnik stają się coraz bardziej znajomi i romantycznie zaangażowani, wina ofiary wzrasta (Pederson i Strömwall, 2013).
Zbyt optymistyczne postrzeganie przyszłości / optimistic error
Trzymając się zbyt optymistycznej perspektywy, często przeceniamy prawdopodobieństwo korzystnych wyników w naszym życiu i nie doceniamy prawdopodobieństwa niefortunnych zdarzeń (optimistic error). Ze zniekształconym poczuciem optymizmu nabieramy przekonania, że nasza przyszłość będzie wypełniona większą ilością błogosławieństw niż nieszczęść – nawet bardziej niż tych, którzy nas otaczają. Chociaż może to zapewnić chwilowe wytchnienie w burzliwym świecie, ważne jest, aby pamiętać, że życie jest ostatecznie nieprzewidywalne i równie pełne radości i smutków.
Lista błędów poznawczych – inne błędy w myśleniu, które popełniamy:
Efekt autorytetu: Ta tendencja do zbytniego polegania na opiniach osób, które uważamy za autorytety, stanowi kluczowy element listy błędów poznawczych (De Cremer i Tyler, 2007). Występuje, gdy bezkrytycznie przyjmujemy ich słowa za prawdę, niezależnie od tego, czy mają one solidne podstawy. Na przykład, moglibyśmy zaakceptować nieuzasadnioną radę lekarza, wierząc, że zawsze ma rację ze względu na swoją pozycję. Wynika to z faktu, że ludzie mają tendencję do poszukiwania wyłącznie faktów potwierdzających posiadaną opinię, zwłaszcza kiedy pochodzi ona od kogoś, kogo uważamy za eksperta.
Efekt czystej ekspozycji: Ten błąd poznawczy jest manifestacją naszej tendencji do lepszego pamiętania i sympatyzowania z tym, co jest nam dobrze znane (Montoya i inni, 2017). Skłania nas do wyboru tego, co znamy i rozumiemy, kosztem nowych i potencjalnie lepszych opcji. Ta tendencja do unikania nieznanego może ograniczać naszą zdolność do podejmowania optymalnych decyzji.
Efekt izolacji: Ten błąd na liście błędów poznawczych polega na skupieniu się na szczegółach, które wyróżniają się z tłumu, co może prowadzić do nieproporcjonalnej wagi przykładaną do jednej cechy podczas dokonywania oceny. Jest nazywany również efektem von Restorff oraz fenomenem Kohlera-Restorff (Jensen, 1962). Skutkuje to błędem w ocenie, gdyż w naszym postrzeganiu rzeczywistości, obserwowane cechy obiektu przykuwają naszą uwagę kosztem innych, równie ważnych aspektów.
Efekt kontrastu: Ten błąd poznawczy występuje, gdy nasze odczucia lub percepcje na temat czegoś są kształtowane przez kontrast z niedawno obserwowanymi zjawiskami (Cash, 1983). Na przykład, po zimnej zimie 15 stopni może wydawać się ciepło, podczas gdy w lecie wydaje się chłodno. Jest to przykład skrótu myślowego, który pozwala nam szybko podejmować decyzje, ale może prowadzić do nieracjonalnego sposobu postrzegania rzeczywistości.
Efekt niepotrzebnych informacji: Często, nieświadomie wykonując działania, skupiamy się na nieistotnych szczegółach, które nie mają wpływu na decyzję, która ma zostać podjęta (Tripepi, i inni, 2010). Na przykład, przy wyborze samochodu mogą nas zainteresować kolor foteli, podczas gdy powinniśmy skupić się na parametrach silnika i bezpieczeństwie. Ten błąd poznawczy pokazuje, jak łatwo możemy stracić persspektywę, koncentrując się na nieistotnych detalach, co ostatecznie wpływa na jakość naszych decyzji. Ta tendencja do oceniania doświadczeń wyłącznie na podstawie ich najsilniejszego bodźca, takiego jak atrakcyjność estetyczna, często przysłania nam prawdziwą wartość i funkcjonalność obiektu.
Pamiętajmy, że lista błędów poznawczych, jakie prezentujemy, rzuca światło na różne tendencje i skróty myślowe, które wpływają na naszą zdolność formułowania poprawnych sądów. Te mechanizmy, chociaż często pomocne w szybkim przetwarzaniu informacji, mogą prowadzić do błędów i zniekształceń w naszym postrzeganiu rzeczywistości. Zrozumienie tych błędów i ich wpływu na nasze decyzje to klucz do poprawy naszej wiedzy na temat własnej świadomości i zdolności do podejmowania świadomych, racjonalnych decyzji.
Efekt Pollyanny: Ta tendencja do lepszego pamiętania argumentów przemawiających za przyjemnymi doświadczeniami niż tych nieprzyjemnych stanowi istotną część listy błędów poznawczych (Balan, 2021). Prowadzi to do nieproporcjonalnej percepcji rzeczywistości, w której świat wydaje się być lepszy, niż jest w rzeczywistości. W efekcie, może to zniekształcać nasze oczekiwania w stosunku do przyszłych wydarzeń, prowadząc do zbytniej pewności siebie. Ciekawostką jest to, że nazwa „Pollyanna” wywodzi się z powieści Eleanor H. Porter z 1913 roku o tym samym tytule, która opowiada historią młodej dziewczyny, która wybiera optymizm bez względu na sytuację (Matlin i Stang, 1978).
Efekt pominięcia (omission bias): Ten błąd poznawczy polega na skupieniu się na rzeczach, które już mamy, podczas gdy pomijamy te, które moglibyśmy mieć (Baron i Ritov, 2004). Przykładem jest skupienie się na stracie pieniędzy zainwestowanych w akcje, zamiast na potencjalnych zyskach z inwestycji. Ten błąd pokazuje naszą tendencję do unikania ryzyka do zera, co może nas ograniczać w dążeniu do lepszych wyników.
Efekt posiadania: Ten błąd poznawczy polega na nadmiernym docenianiu posiadanych rzeczy w porównaniu do tych, które nie są nasze (Morewedge i Giblin, 2015). Wskazuje na naszą tendencję do oceniania własnej wiedzy na temat posiadanych rzeczy jako głębszej i bardziej dokładnej, co może prowadzić do nierównowagi w naszej ocenie wartości.
Efekt obserwatora: To tendencja do przypisywania swojego zachowania okolicznościom zewnętrznym, podczas gdy zachowanie innych przypisujemy ich cechom wewnętrznym (Baclawski, 2018). Na przykład, możemy tłumaczyć własne spóźnienie korkami, podczas gdy spóźnienie kogoś innego przypisujemy jego nieodpowiedzialności. Jest to przykład jakieś błędy poznawcze, które mogą prowadzić do niesprawiedliwych ocen i stereotypów.
Efekt horoskopowy (efekt Forera lub efekt Barnuma): Ten błąd poznawczy polega na wierzeniu, że ogólne i wieloznaczne stwierdzenia odnoszą się bezpośrednio do nas (Dickson i Kelly, 1985). Przykładem może być horoskop, który jest na tyle ogólny, że prawie każdy może się z nim identyfikować. Ten błąd pokazuje naszą skłonność do poszukiwania wyłącznie faktów potwierdzających posiadaną opinię, co może prowadzić do błędnej interpretacji informacji.
Podstawowy błąd atrybucji: Jest to skłonność do przypisywania działań innych ich osobowości, podczas gdy nasze własne działania tłumaczymy okolicznościami. Może to prowadzić do nieuzasadnionych ocen i uprzedzeń, a co za tym idzie, do nieracjonalnego sposobu postrzegania rzeczywistości (Harvey, Town, Yarkin, 981). Znajduje się na naszej liście błędów poznawczych, ponieważ jest częstym błędem w ocenie innych, zwłaszcza w kontekście interakcji społecznych.
Samospełniające się przewidywania: To sytuacje, kiedy nasze oczekiwania wpływają na nasze działania, które z kolei sprawiają, że te oczekiwania stają się rzeczywistością (Merton, 1948). Przykładowo, jeśli oczekujemy, że prezentacja pójdzie źle, możemy być niespokojni i popełnić błędy, które sprawią, że prezentacja rzeczywiście pójdzie źle. Jest to kolejna fraza z naszej listy błędów poznawczych, która pokazuje jak nasze przekonanie o możliwości wpływania na sytuacje, nawet te, nad którymi nie mamy w rzeczywistości żadnego wpływu, może wpływać na nasze decyzje i działania.
Efekt potwierdzenia (confirmation bias): Ten błąd polega na skupieniu na informacjach, które potwierdzają nasze istniejące przekonania, podczas gdy ignorujemy te, które je kwestionują. Może to prowadzić do jednostronnych wniosków i zniekształcenia rzeczywistości Oswald i Grosjean, 2004). Wskazuje to na naszą tendencję do poszukiwania wyłącznie faktów potwierdzających posiadaną opinię, co jest typowym skrótem myślowym, który może prowadzić do błędów poznawczych.
Efekt przywiązania: Polega na nadmiernej skłonności do utrzymania obecnej sytuacji lub decyzji, nawet jeśli istnieją lepsze opcje. Na przykład, możemy unikać zmiany pracy, nawet jeśli nowa oferta jest lepsza, ponieważ jesteśmy przywiązani do obecnej sytuacji. Jest to przykład naszej tendencji do unikania zmian, co może ograniczać nasze możliwości i prowadzić do nieoptymalnych decyzji. W literaturze naukowej odnosi się do teorii przywiązania. Najważniejszą jej zasadą jest to, że niemowlęta i małe dzieci potrzebują bezpiecznej więzi ze swoim głównym opiekunem do rozwoju społecznego i emocjonalnego. Została ona stworzona przez psychiatrę i psychoanalityka Johna Bowlby’ego, który pokazał złożoną dynamikę między ludźmi i to jak ona kształtują nasz rozwój (Abrams, 2013).
Efekt pseudopewności: To tendencja do podejmowania ryzykownych decyzji, gdy stawka jest mała, i unikania ryzyka, gdy stawka jest duża (Tversky, Kahneman, 1989). Przykładem może być większa skłonność do ryzyka przy małych zakładach, podczas gdy przy dużych stawkach stajemy się bardziej konserwatywni. Ten błąd poznawczy pokazuje, jak nasze percepcje ryzyka mogą być zniekształcone w zależności od kontekstu, co jest kolejną pozycją na naszej liście błędów poznawczych.
Błąd kosztów utopionych (efektem popołudniowym – behavioral biases affect prices): Polega na trzymaniu się decyzji, której koszty już ponieśliśmy, a której nie możemy odzyskać, pomimo że dalsze inwestowanie w tę decyzję może przynieść więcej strat. Przykładem jest utrzymanie inwestycji w akcje spółki, której wartość spada, tylko dlatego, że już zainwestowaliśmy w nią środki (Coval, Shumway, 2005). Jest to tendencja do lepszego pamiętania argumentów przemawiających za podjętą już decyzją, co jest częstym błędem poznawczym.
Błąd przypisywania sobie zasług (nazywany także podstawowym błędem atrybucji): To tendencja do przypisywania sobie sukcesów, podczas gdy porażki przypisujemy zewnętrznym okolicznościom. Przykładem może być student, który uważa, że zdał egzamin dzięki swojej ciężkiej pracy, ale nie zdał innego, ponieważ egzamin był niesprawiedliwy. Jest to częsta tendencja do zbytniego polegania na własnej wiedzy na temat sytuacji, co może prowadzić do zbytniej pewności siebie.
Efekt skupienia: Ten błąd poznawczy występuje, gdy skupiamy się nadmiernie na jednym szczególnym elemencie informacji kosztem innych. Przykładowo, podczas zakupu domu, moglibyśmy zatracić się w analizie ceny, zaniedbując inne ważne czynniki, takie jak lokalizacja, stan budynku czy koszty utrzymania. W efekcie, decyzja, którą podejmujemy, może nie być optymalna, ponieważ nie uwzględnia pełnego spektrum informacji. (Kahneman i inni, 2006).
Efekt status quo: Ten błąd poznawczy polega na skłonności do utrzymania obecnego stanu rzeczy, a zmiana jest często postrzegana jako ryzyko. Nawet jeśli są lepsze alternatywy, możemy nie być skłonni do ich rozważenia, co utrudnia rozwój i postęp (Kahneman i Tversky, 1982). Przywiązanie do status quo może nas zniechęcać do próbowania nowych rzeczy i podejmowania ryzykownych, ale potencjalnie dochodowych decyzji.
Efekt ślepej plamki: Jest to tendencja do niezauważania własnych błędów poznawczych, podczas gdy łatwo dostrzegamy je u innych. Ta ślepota na własne błędy może prowadzić do samozadowolenia i braku samokrytycyzmu, a tym samym do podejmowania decyzji na podstawie niepełnych lub błędnych przesłanek (Scopelliti i inni I., Morewedge, 2015)
Efekt wspierania decyzji: Po podjęciu decyzji skłaniamy się do poszukiwania informacji, które ją potwierdzą, i ignorowania tych, które mogą ją podważyć. Ta tendencja do utwierdzania się w swoich decyzjach może utrudniać reakcję na zmieniające się okoliczności i prowadzić do uporu w dążeniu do celów, które już nie są opłacalne (Lind i inni, 2017).
Efekt wyniku (outcome bias, znany również w naukowej literaturze po angielsku jako disparity fallacy lub equity fallacy): Ten błąd poznawczy polega na ocenianiu decyzji na podstawie jej wyniku, zamiast na podstawie jakości decyzji w momencie jej podjęcia (Baron i Hershey, 1988). Możemy więc uważać dobrze przemyślaną decyzję za błędną tylko dlatego, że wynik nie był taki, jakiego oczekiwaliśmy, na przykład z powodu niespodziewanych okoliczności.
Lista błędów poznawczych c.d.
Efekt wyświadczonej przysługi (znany również jako efekt Benjamina Franklina): Po wyświadczeniu komuś przysługi, jesteśmy skłonni oceniać tę osobę pozytywnie, nawet jeśli nie ma innych dowodów na to, że zasługuje na takie pozytywne oceny (Schopler i Compere, 1971). Ten efekt można przypisać sile dysonansu poznawczego; Kiedy nasze zachowanie nie odpowiada naszym myślom lub przekonaniom, próbujemy pogodzić tę niezgodność poprzez późniejszą racjonalizację. Na tym polega istota efektu Benjamina Franklina. Przepisując naszą osobistą narrację, staramy się zachować spójność między naszymi działaniami a naszymi spostrzeżeniami. Jako takie, nasze poczucie siebie pozostaje nienaruszone, podczas gdy nasza sympatia do innych wzrasta.
Efekt wiarygodności: Jest to błąd poznawczy, który polega na tendencji do uznawania informacji za prawdziwe, jeżeli pochodzą one od źródeł, które uważamy za wiarygodne, nawet jeśli nie ma solidnych dowodów potwierdzających te informacje (Birnbaum, i Stegner, 1979). Może to prowadzić do błędów, takich jak niewłaściwe zaufanie do ekspertów, co potęguje ryzyko podjęcia niewłaściwej decyzji. W skrajnych przypadkach efekt wiarygodności może prowadzić do uprzedzeń, manipulacji i dezinformacji.
Efekt zaprzeczania: Ten błąd poznawczy polega na skłonności do negowania informacji, które są sprzeczne z naszymi przekonaniami, nawet jeśli są one prawdziwe (Lord, i inni, 1984). Może to prowadzić do ignorowania ważnych dowodów i utrzymania błędnych przekonań, pomimo istnienia danych, które je obalają. Efekt zaprzeczania jest często widoczny w debatach na tematy kontrowersyjne, gdzie ludzie odrzucają dowody niepasujące do ich wcześniejszych przekonań.
Hiperboliczne obniżenie wartości: Jest to tendencja do preferowania natychmiastowych nagród kosztem nagród przyszłych (np. Grüne-Yanoff 2015). Na przykład, możemy woleć otrzymać 50 zł teraz, zamiast 100 zł za rok, mimo że druga opcja jest obiektywnie lepsza. Ta skłonność do krótkowzroczności może prowadzić do podejmowania decyzji, które są korzystne w krótkim terminie, ale niekorzystne w długim.
Efekt pewności wstecznej (ang. hindsight bias), inaczej zwany „wiedziałem że tak będzie” czy pełzającym determinizmem (ang. creeping determinism): Jest to błąd poznawczy, polegający na tendencji do przekonania, że wiedzieliśmy, jakie będą wyniki, po tym, jak już je znamy. Na przykład, po meczu piłki nożnej możemy być przekonani, że wiedzieliśmy, że nasza drużyna wygra, pomimo że przed meczem nie byliśmy pewni tego rezultatu (Roese i Vohs, 2012). Może to prowadzić do przeceniania naszej zdolności do przewidywania.
Efekt polaryzacji (znany również jako polaryzacja przekonań): Ten błąd poznawczy polega na skłonności do przesadzania naszych przekonań po zapoznaniu się z informacjami, które je potwierdzają (Lord, Ross i Lepper (1979). Może to prowadzić do pogłębiania się podziałów, na przykład w debatach politycznych, gdzie skłonność do potwierdzania swoich przekonań może prowadzić do skrajności.
Efekt przekonania: Jest to tendencja do odrzucania informacji, które kwestionują nasze przekonania, i akceptowania tych, które je potwierdzają. Może to prowadzić do utrzymania błędnych przekonań, mimo istnienia dowodów na ich nieprawdziwość, a także do skupienia na dowodach potwierdzających nasze przekonania, pomijając te, które je podważają (Sternberg i Leighton, 2004).
Efekt nadrzędności przekonań: Ten błąd poznawczy polega na skłonności do przeceniania znaczenia informacji, które potwierdzają nasze początkowe przekonania, co może prowadzić do ignorowania istotnych dowodów, które kwestionują nasze przekonania. Efekt ten może prowadzić do utrzymania się błędnych przekonań, pomimo istnienia dowodów na ich nieprawdziwość (Evans, 2003).
Paradoks hazardzisty (ang. gambler’s fallacy, zwany również złudzeniem gracza, złudzeniem Aleksego Iwanowicza i złudzeniem Monte Carlo): Ten błąd poznawczy polega na wierzeniu, że po serii niepowodzeń nastąpi sukces. Jest to powszechne w grach hazardowych, gdzie gracze często wierzą, że po serii przegranych nastąpi zwycięstwo. Problem z tym myśleniem polega na tym, że każda gra jest niezależna i wcześniejsze wyniki nie mają wpływu na przyszłe. Paradoks hazardzisty może prowadzić do problemów z hazardem, ponieważ gracze mogą kontynuować grę, myśląc, że są „należni” do wygranej (np. Clotfelter i Cook, 1993)
Efekt jednorodności grupy obcej (ang. out-group homogeneity, zwany też błędem jednorodności grupy obcej): Ten błąd polega na przekonaniu, że wszyscy członkowie grupy społecznej, etnicznej czy zawodowej, do której nie należymy, są do siebie podobni. Może to prowadzić do stereotypów i uprzedzeń, ponieważ ignorujemy indywidualne różnice między członkami tej grupy (Quattrone i Jones, 1980). W rzeczywistości, każda grupa jest zróżnicowana, a przekonanie o ich jednorodności jest zniekształceniem.
Błąd koniunkcji (złudzeniem koniunkcji): Jest to błąd polegający na przypisaniu wyższego prawdopodobieństwa wystąpienia dwóch zdarzeń jednocześnie, niż wystąpienia jednego z nich. Na przykład, możemy myśleć, że jest bardziej prawdopodobne, że ktoś jest starszym mężczyzną i gra w golf, niż że jest po prostu starszym mężczyzną. W rzeczywistości, prawdopodobieństwo wystąpienia dwóch zdarzeń jednocześnie jest zawsze mniejsze lub równe prawdopodobieństwu wystąpienia jednego z nich. Błąd ten może prowadzić do niewłaściwej oceny ryzyka i podejmowania błędnych decyzji (np. Tentori, Bonini i Osherson, 2004).
Zapraszam Cię na Nawigatora Emocji , który przygotują Cię do radzenia sobie z Twoimi emocjami oraz zachowaniami osób, które Cię otaczają. Jeśli chcesz pomagać innym to zapraszam Cię na te szkolenia “Trener Inteligencji Emocjonalnej” lub “Diagnosta Inteligencji Emocjonalnej” Wpisz kod: 5XU9XAZV, aby otrzymać 1000 zł rabatu. Dostępnych jest już tylko jeden taki kupon.
Przeczytaj koniecznie: Błędy poznawcze w psychologii, ćwiczenia
Lista błędów poznawczych – Bibliografia:
Abrams, David B.; et al. (2013). „Attachment Theory”. Encyclopedia of Behavioral Medicine. New York, NY: Springer New York. pp. 149–155.
Baclawski, K. (2018, June). The observer effect. In 2018 IEEE Conference on Cognitive and Computational Aspects of Situation Management (CogSIMA) (pp. 83-89). IEEE.
Balan, B. (2021). The Shine of Pollyannaism in Maya Angelou’s Works. The Creative launcher, 6(4), 96-101.
Baron, J., & Hershey, J. C. (1988). Outcome bias in decision evaluation. Journal of personality and social psychology, 54(4), 569.
Baron, J., & Ritov, I. (2004). Omission bias, individual differences, and normality. Organizational behavior and human decision processes, 94(2), 74-85.
Baumgardner, A. H., & Arkin, R. M. (1988). Affective state mediates causal attributions for success and failure. Motivation and Emotion, 12, 99-111.
Bieneck, S., & Krahé, B. (2011). Blaming the victim and exonerating the perpetrator in cases of rape and robbery: Is there a double standard?. Journal of interpersonal violence, 26(9), 1785-1797.
Birnbaum, M. H., & Stegner, S. E. (1979). Source credibility in social judgment: Bias, expertise, and the judge’s point of view. Journal of Personality and Social Psychology, 37(1), 48.
Campbell SG, Croskerry P, Petrie DA. Cognitive bias in health leaders. Healthcare Management Forum. 2017;30(5):257-261.
Caputo, A. (2016). Overcoming judgmental biases in negotiations: A scenario-based survey analysis on third party direct intervention. Journal of Business Research, 69(10), 4304–4312.
Cash, T. F., Cash, D. W., & Butters, J. W. (1983). ” Mirror, Mirror, on the Wall…?” Contrast Effects and Self-Evaluations of Physical Attractiveness. Personality and Social Psychology Bulletin, 9(3), 351-358.
Clotfelter, C. T., & Cook, P. J. (1993). The “gambler’s fallacy” in lottery play. Management Science, 39(12), 1521-1525.
Coleman, M. D. (2011). Emotion and the self-serving bias. Current Psychology, 30, 345-354.
Coleman, M. D. (2018). Emotion and the false consensus effect. Current Psychology, 37, 58-64.
Coval, J. D., & Shumway, T. (2005). Do behavioral biases affect prices?. The Journal of Finance, 60(1), 1-34.
De Cremer, D., & Tyler, T. R. (2007). The effects of trust in authority and procedural fairness on cooperation. Journal of applied psychology, 92(3), 639.
Dickson, D. H., & Kelly, I. W. (1985). The ‘Barnum Effect’in personality assessment: A review of the literature. Psychological Reports, 57(2), 367-382.
E. Aronson, T.D. Wilson, R.M. Akert, Social Psychology, New York, Longman, 1998, p.116.
E. Balcetis, D. Dunning, R.L. Miller, Do collectivist know themselves better than individualists? Cross-cultural studies of the holier than thou phenomenon, Journal of Personality and Social Psychology, 95(6), 2008, p. 1254.
Editorial. Let’s think about cognitive bias. Nature. 2015; 526(7572):163.
Evans, J. S. B. T. (2003). In two minds: Dual-process accounts of reasoning. Trends in Cognitive Sciences, 7, 454–459. doi:10.1016/j.tics.2003.08.012
Ewoldt, C. A., Monson, C. M., & Langhinrichsen-Rohling, J. (2000). Attributions about rape in a continuum of dissolving marital relationships. Journal of Interpersonal Violence, 15(11), 1175-1182.
Ferro, C., Cermele, J., & Saltzman, A. (2008). Current perceptions of marital rape: Some good and not-so-good news. Journal of Interpersonal Violence, 23(6), 764-779.
Forgas, J. P. (2008). Affect, cognition, and social behavior: The effects of mood on memory, social judgments, and social interaction. Memory and mind: A festschrift for Gordon H. Bower, 261-279.
Gilovich, T., Medvec, V. H., & Savitsky, K. (2000). The spotlight effect in social judgment: an egocentric bias in estimates of the salience of one’s own actions and appearance. Journal of personality and social psychology, 78(2), 211.
Grubb, A., & Harrower, J. (2008). Attribution of blame in cases of rape: An analysis of participant gender, type of rape and perceived similarity to the victim. Aggression and violent behavior, 13(5), 396-405.
Grubb, A., & Turner, E. (2012). Attribution of blame in rape cases: A review of the impact of rape myth acceptance, gender role conformity and substance use on victim blaming. Aggression and violent behavior, 17(5), 443-452.
Grüne-Yanoff, T. (2015). Models of temporal discounting 1937–2000: An interdisciplinary exchange between economics and psychology. Science in context, 28(4), 675-713.
Guthrie C, Rachlinski JJ, Wistrich AJ. Blinking on the Bench: How Judges Decide Cases. 2007; Cornell Law Faculty Publications. Paper 917. Available at: https://papers.ssrn.com/sol3/ papers.cfm?abstract_id¼1026414
Hallion, L. S., & Ruscio, A. M. (2011). A meta-analysis of the effect of cognitive bias modification on anxiety and depression. Psychological bulletin, 137(6), 940.
Harvey, J. H., Town, J. P., & Yarkin, K. L. (1981). How fundamental is” the fundamental attribution error”?. Journal of personality and social psychology, 40(2), 346.
Jensen, A. R. (1962). The von Restorff isolation effect with minimal response learning. Journal of Experimental Psychology, 64(2), 123.
Kahneman, D., & Tversky, A. (1982). The psychology of preferences. Scientific American, 246(1), 160-173.
Kahneman, D., Krueger, A. B., Schkade, D., Schwarz, N., & Stone, A. A. (2006). Would you be happier if you were richer? A focusing illusion. science, 312(5782), 1908-1910.
Lind, M., Visentini, M., Mäntylä, T., & Del Missier, F. (2017). Choice-supportive misremembering: A new taxonomy and review. Frontiers in psychology, 8, 2062.
Lord, C. G., Lepper, M. R., & Preston, E. (1984). Considering the opposite: a corrective strategy for social judgment. Journal of personality and social psychology, 47(6), 1231.
Lord, C. G., Ross, L., & Lepper, M. R. (1979). Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence. Journal of personality and social psychology, 37(11), 2098.
Matlin, M. W., & Stang, D. J. (1978). The Pollyanna principle: Selectivity in language, memory, and thought. Schenkman Publishing Company.
Merton, R. K. (1948). The self-fulfilling prophecy. The antioch review, 8(2), 193-210.
Montoya, R. M., Horton, R. S., Vevea, J. L., Citkowicz, M., & Lauber, E. A. (2017). A re-examination of the mere exposure effect: The influence of repeated exposure on recognition, familiarity, and liking. Psychological bulletin, 143(5), 459.
Morewedge, C. K., & Giblin, C. E. (2015). Explanations of the endowment effect: an integrative review. Trends in cognitive sciences, 19(6), 339-348.
Oswald, M. E., & Grosjean, S. (2004). Confirmation bias. Cognitive illusions: A handbook on fallacies and biases in thinking, judgement and memory, 79.
Otuteye, E., & Siddiquee, M. (2015). Overcoming cognitive biases: A heuristic for making value investing decisions. Journal of Behavioral Finance, 16(2), 140-149.
Pedersen, S. H., & Strömwall, L. A. (2013). Victim blame, sexism and just-world beliefs: A cross-cultural comparison. Psychiatry, Psychology and Law, 20(6), 932-941.
Pronin, E., Lin, D. Y., & Ross, L. (2002). The bias blind spot: Perceptions of bias in self versus others. Personality and Social Psychology Bulletin, 28(3), 369-381.
Quattrone, G. A., & Jones, E. E. (1980). The perception of variability within in-groups and out-groups: Implications for the law of small numbers. Journal of personality and social psychology, 38(1), 141.
Robert J. Sternberg; Jacqueline P. Leighton (2004). The Nature of Reasoning. Cambridge University Press. p. 300. ISBN 978-0-521-00928-7. Retrieved 3 September 2013.
Roese, N. J., & Vohs, K. D. (2012). Hindsight bias. Perspectives on psychological science, 7(5), 411-426.
Ryan, W. (1971). 1971Blaming the Victim. New York.
Schopler, J., & Compere, J. S. (1971). Effects of being kind or harsh to another on liking. Journal of Personality and Social Psychology, 20(2), 155.
Scopelliti, I., Morewedge, C. K., McCormick, E., Min, H. L., Lebrecht, S., & Kassam, K. S. (2015). Bias blind spot: Structure, measurement, and consequences. Management Science, 61(10), 2468-2486.
Sirius program of IARPA. 2015. Available at: http://www.hreon line.com/HRE/view/story.jhtml?id¼534358939. Accessed July 25, 2017.
Stenner T. Why the average investor is so bad at it. The Globe and Mail. 2016. Available at: https://www.theglobeandmail.com/ globe-investor/globe-wealth/why-the-average-investor-is-so-badat-it/article30728320/.
Taylor, S. E., & Koivumaki, J. H. (1976). The perception of self and others: Acquaintanceship, affect, and actor-observer differences. Journal of personality and social psychology, 33(4), 403.
Tentori, K., Bonini, N., & Osherson, D. (2004). The conjunction fallacy: A misunderstanding about conjunction?. Cognitive Science, 28(3), 467-477.
Thorndike, E. L. (1920). A constant error in psychological ratings. Journal of applied psychology, 4(1), 25-29.
Tripepi, G., Jager, K. J., Dekker, F. W., & Zoccali, C. (2010). Selection bias and information bias in clinical research. Nephron Clinical Practice, 115(2), c94-c99.
Tversky, A., & Kahneman, D. (1989). Rational choice and the framing of decisions. In Multiple criteria decision making and risk analysis using microcomputers (pp. 81-126). Springer Berlin Heidelberg.
Vaughn VM, Chopra V, Howell JD. War games and diagnostic errors: could lessons from the cold war help reduce diagnostic error? BMJ. 2016;355:i6342. Available at: http://www.bmj.com/ content/bmj/355/bmj.i6342.full.pdf. Accessed July 25, 2017.
Yetiv SA. National Security Through a Cockeyed Lens: How Cognitive Bias Impacts U.S. Foreign Policy. Baltimore, MD: Johns Hopkins University Press; 2013.