PRACowniA

8 sierpnia 2014

58 błędów poznawczych, które psują wszystko, co robimy

W ciekawych czasach dużo się dzieje. Dopływają do nas liczne i bardzo różne informacje, często wzajemnie sprzeczne. Czy potrafimy odróżnić wiarygodne od mniej wiarygodnych, czy też będziemy szukać jedynie potwierdzenia wcześniej przyjętego stanowiska? Czy dotrze do nas ostrzeżeżenie o niebezpieczeństwie? W ciekawych czasach dużo od tego może zależeć. Poniżej tłumaczenie artykułu o błędach myślenia. Niektóre z nich się zazębiają, co do niektórych nie ma pełnej zgodności wśród naukowców (jak np. w kwestii eksperymentu z ratowaniem ptaków), ale nawet po przesianiu ich przez sito i pogrupowaniu, ich ilość,  różnorodność i doniosłość przyprawiają o zawrót głowy. Gdzie mogliśmy, dodaliśmy [w nawiasach kwadratowych] drobne komentarze i linki do materiałów po polsku. Zapraszamy do lektury i wyciągania (nieuprzedzonych) wniosków.

Drake Baer i Gus Lubin
Business Insider
18 czerwca 2014 12:43 CDT

© wikipedia

Lubimy myśleć, że jesteśmy ludźmi racjonalnymi.

Jednak jesteśmy podatni na setki udowodnionych błędów poznawczych, które powodują, że myślimy i działamy nieracjonalnie. Myślimy nawet, że jesteśmy racjonalni, pomimo dowodów irracjonalności u innych ludzi – to się nazywa błąd ślepej plamki [ang. blind spot bias].

Studium o tym, jak często ludzie robią irracjonalne rzeczy, wystarczyło do zdobycia nagrody Nobla w dziedzinie ekonomii przez psychologa Daniela Kahnemana [link po polsku tutaj] i otworzyło szybko rozwijającą się gałąź psychologii behawioralnej. Podobne spostrzeżenia zmieniają obecnie podejście w takich dziedzinach, jak marketing czy kryminologia.

Zebraliśmy tutaj długą listę najbardziej godnych uwagi błędów myślenia (ang. biases) mając nadzieję, że wskażemy wam, jak i sobie, te najważniejsze, które kształtują nasze decyzje.

Heurystyka afektu (ang. affect heuristic)

To, jak się czujesz, kształtuje to, jak interpretujesz świat. Wyobraź sobie na przykład, że na ekranie twojego komputera przepływają słowa “bierz” i „ciastko”, wyświetlane przez 1/30 sekundy.

Które z nich rozpoznasz?

Jeżeli jesteś głodny, badania wskazują, że widzisz tylko ciastko.

[O tym i o innych błędach poznawczych po polsku tutaj]

Anchoring Bias (dosłownie – błąd zakotwiczenia, a za polską Wiki – efekt skupienia)

Ludzie przywiązują największą wagę do pierwszej informacji, jaką usłyszą.

Na przykład w negocjacjach płacowych ten, kto pierwszy podaje ofertę, ustanawia tym zakres rozsądnych możliwości w umyśle każdej osoby, biorącej w nich udział. Każda odpowiedź na pierwszą ofertę w naturalny sposób będzie reakcją – lub będzie zakotwiczona – przez ofertę otwierającą.

“Większość ludzi przychodzi z bardzo silnym przekonaniem, że nie powinni jako pierwsi proponować oferty – twierdzi Leigh Thompson, profesor Northwestern University Kellogg School of Management. – Nasze badania i wiele potwierdzających badań pokazują, że jest zupełnie na odwrót. Ten, kto jako pierwszy przedstawia ofertę, wychodzi na tym lepiej”.

Błąd potwierdzenia (ang. confirmation bias)

Mamy w zwyczaju słuchać wyłącznie informacji, które potwierdzają nasze wstępne założenia – jedna z przyczyn, dla której tak trudno jest prowadzić inteligentną rozmowę na temat zmian klimatycznych.

[Link do polskiej Wiki tutaj i do humorystycznego artykułu tutaj]

Efekt oczekiwań obserwatora (observer-expectancy bias)

Jest to kuzyn błędu potwierdzenia. W przypadku tego błędu nasze oczekiwania nieświadomie wpływają na to, jak postrzegamy rezultat. Badacze oczekujący jakiegoś określonego rezultatu w eksperymencie mogą przypadkowo manipulować albo interpretować rezultaty tak, żeby potwierdziły ich oczekiwania. Jest to przyczyna, dla której na użytek badań naukowych została stworzona technika eksperymentalna o nazwie „podwójnie ślepa próba”(ang. double-blind experiment).

[Polski link tutaj]

Zasada podczepienia (ang. bandwagon effect)

Prawdopodobieństwo, że ktoś przyjmie jakieś przekonanie jako swoje, wzrasta wraz z ilością ludzi, którzy mają to przekonanie. To jest potężna forma grupowego myślenia i przyczyna, dla której zebrania są tak nieproduktywne.

[Link do polskiej Wiki tutaj, do artykułu po polsku tutaj]

Błąd ślepej plamki (ang. bias blind spots)

Nieumiejętność rozpoznania własnych błędów poznawczych jest również błędem poznawczym.

Znaczące, psycholog z Princeton Emily Pronin odkryła, że „jednostki zauważają istnienie i działanie błędów poznawczych i motywacyjnych w dużo większej mierze u innych niż u siebie”.

[Artykuł o różnych błędach, między innymi i o tym]

© flickr

Efekt wspierania decyzji (ang. choice-supportive bias)

Masz skłonność do czucia się dobrze, gdy dokonasz wyboru, nawet gdy ten wybór ma braki. Myślisz na przykład, że twój pies jest niesamowity – nawet wtedy, gdy od czasu do czasu zdarza mu się pogryźć ludzi – no i że inne psy są głupie, skoro nie są twoje.

[Artykuł po polsku tutaj]

Iluzja grupowania (ang. clustering illusion)

Jest to tendencja do zauważania wzoru w przypadkowych zdarzeniach. Stoi ona u podstaw paradoksu hazardzisty, na przykład, gdy oczekuje się, że pojawienie się koloru czerwonego po serii czerwonych na ruletce będzie mniej albo bardziej prawdopodobne.

[Link do polskiej Wiki tutaj, i do ciekawego artykułu tutaj]

Conservatism bias (dosłownie: błąd konserwatyzmu)

Zachodzi wtedy, gdy ludzie wierzą w dowody/fakty z przeszłości bardziej niż w nowe fakty czy informacje, które dopiero się pojawiły. Dużo czasu zajęło ludziom zaakceptowanie faktu, że Ziemia jest okrągła, dlatego że wciąż utrzymywali poprzednie rozumienie, że Ziemia jest płaska.

Konformizm (ang. conformity)

Jest to skłonność ludzi do dostosowywania się do innych ludzi. Skłonność ta jest tak silna, że może prowadzić do robienia bardzo dziwacznych rzeczy, jak to pokazuje eksperyment przeprowadzony przez Solomona Asha).

Zapytaj jednego uczestnika eksperymentu i kilku podstawionych uczestników (którzy w rzeczywistości współpracują z eksperymentatorem), które z linii B, C, D, E są tej samej długości co linia A. Jeżeli wszyscy uczestnicy odpowiedzą, że jest to linia D, prawdziwy badany przyzna rację temu obiektywnie fałszywemu stwierdzeniu w szokującej ilości trzech przypadków na cztery.

“Niepokojące jest, że odkryliśmy tak silną skłonność do konformizmu w naszym społeczeństwie, że rozsądni, inteligentni ludzie o dobrych intencjach skłonni są nazwać czarne białym – napisał Ash. – Nasuwają się tutaj pytania o to, w jaki sposób się edukujemy i o wartości, które kierują naszym zachowaniem”.

[Link do polskiej Wiki z opisem eksperymentu Asha tutaj]

Przekleństwo wiedzy (ang. Curse of knowledge)

Gdy dobrze wyedukowani ludzie nie mogą zrozumieć zwyczajnych ludzi. Na przykład w progranie telewizyjnym “The Big Bang Theory” (W Polsce emitowany jako Teoria wielkiego podrywu) naukowiec Sheldon Cooper ma duże trudności ze zrozumieniem jego sąsiadki, kelnerki Penny. [Link po polsku tutaj]

Efekt wabika (ang. decoy effect)

Zjawisko w marketingu, gdzie konsumenci dokonują zmiany wyboru pomiędzy dwiema możliwościami, gdy zaoferuje się im trzecią opcję. Na przykład, otrzymując propozycję wyboru mniejszej lub większej szklanki napojów, mogą wybrać mniejszą; ale gdy zaproponuje się im trzecią opcję, szklankę dużo większą od poprzednich, mogą wybrać tę, która teraz jest średnią.

[Link do polskiego artykułu tutaj]

Denomination effect (dosłownie: efekt nominału)

Ludzie są bardziej skłonni wydać taką samą ilość pieniędzy w małych banknotach niż w dużych.

[Link po polsku tutaj – w ostatnim akapicie artykułu… chociaż cały artykuł jest ciekawy].

© Business Insider

Ignorowanie czasu trwania (ang. duration neglect)

Kiedy czas trwania zdarzenia nie ma wpływu na to, jak jest ono przez nas postrzegane. Na przykład pamiętamy chwilowy ból jako równie silny co długotrwały.

[Dodatkowy link do angielskiej Wiki tutaj. Link po polsku tutaj odsyła do fragmentu książki Daniela Kahnemana „Pułapki myślenia”].

Heurystyka dostępności (ang. availability heuristic)

Kiedy ludzie przeceniają znaczenie informacji, która w danej chwili jest dla nich dostępna. Na przykład ktoś może polemizować, że palenie nie jest niezdrowe na podstawie życia swojego dziadka, który żył 100 lat i palił trzy paczki papierosów dziennie. Argument, który pomija możliwość, że dziadek był wyjątkiem od reguły.

[Jak widać, nikt nie jest wolny od błędów myślenia. Autor artykułu sam przecenił wagę łatwo dostępnej (dez)informacji.

Link do polskiej Wiki tutaj. Fragment z wprowadzenia do książki „Pułapki myślenia” Daniela Kahnemana:

Innym razem zastanawialiśmy się z Amosem nad odsetkiem rozwodów wśród profesorów naszej uczelni. Zauważyliśmy, że kiedy zadajemy sobie takie pytanie, w pamięci uruchamia nam się proces wyszukiwania rozwiedzionych profesorów, których znaliśmy osobiście albo ze słyszenia, a następnie oceniamy liczność kategorii na podstawie tego, jak łatwo było nam sobie przypomnieć odpowiednie przykłady. To poleganie na łatwości przywołania pamięciowego nazwaliśmy „heurystyką dostępności”.

Szerzej w rozdziale tej samej książki„Naukowe badanie dostępności naukowej”]

Luka emaptyczna (ang. empathy gap)

Kiedy ludzie w jednym stanie umysłu nie są w stanie zrozumieć ludzi w innym stanie umysłu.

[Link do angielskiej Wiki tutaj. Link po polsku tutaj]

Frequency illusion (dosłownie: Iluzja częstotliwości)

Występuje wtedy, gdy jakieś słowo albo rzecz, o której dopiero co się dowiedziałeś nagle pojawia się wszędzie. Gdy właśnie poznałeś znaczenie słowa SAT [SAT – forma egzaminu w USA, zobacz link] zaczynasz je widzieć w bardzo wielu miejscach.
[Link do angielskiej Wiki tutaj.]

Podstawowy błąd atrybucji (ang. Fundamental attribution error)

Zachodzi wtedy, gdy przypisujesz zachowanie jakiejś osoby wrodzonej cesze jej osobowości zamiast okoliczności, w jakiej się akurat znalazła. Na przykład możesz myśleć, że twoja koleżanka jest gniewną osobą, gdy tak naprawdę jest zwyczajnie zdenerwowana, bo stłukła sobie palec.

[Link do polskiej Wiki tutaj].

Efekt Galatei (ang. Galatea effect)

Zachodzi wtedy, gdy ludzie odnoszą sukces – albo porażkę – ponieważ myślą, że tak powinno być.

[Link do polskiej Wiki tutaj].

Efekt halo (ang. Halo effect)

Kiedy czyjąś jedną pozytywną cechę widzimy we wszystkim, co dotyczy tej osoby lub rzeczy.

[Link do polskiej Wiki tutaj].

Hard-easy bias (dosł. błąd trudne-łatwe)

W przypadku łatwych do rozwiązania problemów każdy jest zbyt pewny siebie, a w przypadku trudnych – niewystarczająco pewny siebie.

[Dodatkowy link po angielsku tutaj. Autor oryginalnego tekstu najwyraźniej przestawił trudne z łatwym. Powinno być: w przypadku problemu trudnego możemy przeceniać naszą szansę sukcesu czyli być zbyt pewni siebie, a w przypadku problemu łatwego możemy zaniżać szanse sukcesu, czyli być zbyt mało pewni siebie].

Herding (Owczy pęd; dosłownie: gromadzenie się w stado)

Ludzie mają skłonność do gromadzenia się, szczególnie w trudnych i niepewnych czasach.

[Nienajfortunniejszy opis. Tendencja ludzi do zbierania się w grupy, zwłaszcza w trudnych czasach, jest normalnym zachowaniem społecznym, a nie błędem poznawczym. Linkowany artykuł mówi o procesie podejmowania decyzji pod wpływem zachowania tłumu oraz szukania ratunku poprzez ukrycie się w tłumie. Link do polskiej Wiki tutaj i tutaj (w kontekście rynku i zachowań konsumenckich). Obszerniej na ten temat można poczytać w książce Gustava Le Bona “Psychologia tłumu”.]

© youtube

Efekt myślenia z perspektywy czasu (za polskim wydaniem „Pułapki myślenia”, albo za Wiki – efekt „wiedziałem, że tak będzie”. Po angielsku – hindsight bias)

Modelka pozuje z nową premierową Nokią “E90 Communicator” na wystawie w New Dehli 28 czerwca 2007. Oczywiście to Apple i Google staną się dwiema najważniejszymi firmami w branży telefonów – ale powiedz to Nokii około 2003 roku.

[Link po polsku tutaj i tutaj. Odsyłam również do książki „Pułapki myślenia” rozdział 19, Złudzenie zrozumienia.]

Hiperboliczne obniżenie wartości (ang. Hyperbolic discounting)

Tendencja do odniesienia natychmiastowej korzyści zamiast większego zysku w dalszej perspektywie.

[Link do polskiej Wiki tutaj]

Efekt ideometryczny (ang. Ideometer effect)
Zachodzi wtedy, gdy jakaś idea, wyobrażenie lub myśl powoduje nieświadomą reakcję ciała. Na przykład smutna myśl wywołuje łzawienie oczu. Wygląda na to, że plansze Ouija w ten właśnie sposób posiadają swój rozum.

[Link po polsku tutaj]

Złudzenie kontroli (ang. Illusion of control)

Tendencja do przeceniania wpływu, jaki mamy na bieg wydarzeń. Przykład fana sportu, który myśli, że jego myśli albo czyny będą miały wpływ na przebieg gry.

[Link do polskiej Wiki tutaj i do ciekawego artykułu tutaj].

Efekt niepotrzebnych informacji (ang. Information bias)

Tendencja do szukania informacji wtedy, gdy nie będzie miała ona wpływu na planowaną czynność. Więcej informacji nie zawsze jest dobre. I rzeczywiście, z mniejszą ilością informacji ludzie często dokonują trafniejszych przewidywań.

[Link do polskiej Wiki tutaj. Zobacz również książkę “Pułapki myślenia”, David Kahneman hasło “less is more”,czyli „mniej znaczy więcej”, w rozdziale „Linda – mniej znaczy więcej”]

Efekt faworyzowania „swoich” (ang. Inter-group bias)

Ludzi należących do naszej grupy postrzegamy inaczej niż ludzi nienależących do niej albo należących do innej. [Dodatkowy link do ang. Wiki tutaj, link do polskiej Wiki tutaj]

Irrational escalation (dosłownie: irracjonalna eskalacja lub za Kahnemanem błąd poniesionych kosztów. Z ang. irrational escalation, irrational escalation of commitment albo sunk-cost fallacy)

Kiedy ludzie decydują nieracjonalnie na podstawie przeszłych racjonalnych decyzji. Może się to wydarzyć na aukcji , gdzie dwóch licytujących napędzonych rywalizacją oferuje więcej niż chcieli wcześniej zapłacić. [Link do angielskiej Wiki tutaj i tutaj, link do polskiej Wiki tutaj i tutaj]

Dominacja negatywności albo inklinacja negatywna (ang. negativity bias)

Tendencja do przykładania większej wagi do doświadczeń negatywnych niż do pozytywnych. Ludzie z tym uprzedzeniem czują, że „zło jest silniejsze od dobra” i w danej sytuacji będą bardziej widzieć zagrożenia niż korzyści.

Psychologowie twierdzą, że jest to przystosowanie ewolucyjne – lepiej pomylić się i wziąć skałę za niedźwiedzia niż niedźwiedzia za skałę.

[Po polsku: odsyłamy do książki „Pułapki myślenia”, rozdział 28 „Zdarzenia niekorzystne”)

Efekt pominięcia (ang. Omission bias)

Tendencja do nie-działania zamiast działania.

Psycholog Art Markman dał świetny przykład w 2010 roku:

Efekt pominięcia wkrada się w nasze domowe spory, niepowodzenia w pracy, a nawet w dyskusje polityczne. W marcu prezydent Obama ponaglał Kongresdo wprowadzenia reform opieki zdrowotnej. Republikanie mają nadzieję, że ludzie będą obwiniać Demokratów za problemy, które mogą pojawić się wraz z wprowadzeniem nowego prawa. Ale skoro problemy z opieką zdrowotną istniały już wcześniej, czy rzeczywiście [Republikanie] mogą spodziewać się, że Demokraci, którzy wprowadzili nowe prawo, będą obwiniani za przyszłe wyniki bardziej niż Republikanie, którzy stali w opozycji? Tak, mogą – efekt pominięcia jest po ich stronie.

[Link do polskiej Wiki tutaj]

Efekt strusia (ang. Ostrich effect)

© Business Insider

Ignorowanie niebezpiecznych lub negatywnych informacji przez „chowanie głowy w piasek”, jak to robi struś. [Link po polsku tutaj]

Efekt wyniku (ang. Outcome bias)

Ocenianie decyzji na podstawie wyniku zamiast ocenienia, jak decyzja była podejmowana w danej chwili.

[Link do polskiej Wiki tutaj]

Zbytnia pewność siebie (ang. Overconfidence)

Niektórzy z nas są zbyt pewni swoich możliwości, a to powoduje, że podejmujemy większe ryzyko w codziennym życiu.

[Link po polsku tutaj]

Nadmierny optymizm (ang. Overoptymism)
Zachodzi wtedy, gdy wierzymy, że świat jest lepszym miejscem, niż w rzeczywistości jest. Nie jesteśmy przygotowani na niebezpieczeństwa i przemoc, które możemy napotkać. Niemożność zaakceptowania pełnego spektrum ludzkiej natury sprawia, że łatwiej wystawiamy się na doznanie krzywdy.

[Link po polsku tutaj.]

Błąd pesymizmu (ang. Pessimism bias)

Przeciwieństwo nadmiernego optymizmu. Pesymiści przeceniają negatywne konsekwencje działań własnych lub innych ludzi.

Efekt placebo (ang. Placebo effect)

Przekonanie, że wiara w zachodzenie jakiegoś procesu pomaga temu procesowi zaistnieć. Jest to podstawowa zasada działania cyklów rynkowych, jak i jedna z cech wspomagających ogólnie pojęte leczenie medyczne.

[Link po polsku tutaj i do polskiej Wiki tutaj]

Złudzenie planowania (ang. Planning fallacy)

Skłonność do zaniżania oceny ilości czasu potrzebnego do zakończenia zadania.

[Link po polsku tutaj i do polskiej Wiki tutaj]

Racjonalizacja po zakupie lub racjonalizacja zakupu (ang. Post-purchase rationalization znany również (za ang. Wikipedią) jako Buyer’s Stockholm Syndrome)

Po zakupie wierzymy, że towar był warty swojej ceny.

[Link po polsku tutaj. Dotyczy zarówno zakupu rzeczy, jak i sytuacji, gdy „kupujemy” jakąś opinię albo poglądy – link do bardzo ciekawego artykułu i dyskusji tutaj (ang.)]

Torowanie lub Efekt torowania (ang. Priming lub priming effect)

Torowanie zachodzi wówczas, gdy po przedstawieniu ci jakiejś idei, zaczynasz z większą łatwością identyfikować powiązane idee.

Weźmy za przykład eksperyment opisany na stronie Less Wrong:

Przypuśćmy, że prosisz ludzi biorących udział w badaniu, żeby nacisnęli jeden przycisk, kiedy zobaczą ciąg liter układających się w jakieś słowo, a inny przycisk, gdy ciąg liter nie układa się w słowo. (Przykład z oryginalnego teksu: słowa “banack” i “banner”). Potem pokazujesz im ciąg liter układający się w “woda”. Potem badani znacznie szybciej zidentyfikują ciąg “pić” jako słowo. Jest to znane jako efekt torowania poznawczego (cognitive priming).

Torowanie uaktywnia też znacznie szersze skojarzenia. Jeśli zobaczenie słowa „woda” uaktywnia rozpoznanie słowa „pić”, najprawdopodobniej uaktywni też dostrzeżenie słów takich jak „rzeka”, „szklanka” czy „chlapać”.

[Link po polsku tutaj]

Złudzenie pro-innowacyjności (ang. Pro-innovation bias)

Kiedy pomysłodawca zmian ma skłonność do przeceniania użyteczności i niedoceniania ograniczeń proponowanego pomysłu. Brzmi znajomo, Dolino Krzemowa?

Odwlekanie (ang. Procrastination)

Działanie pod wpływem chwili kosztem inwestowania w przyszłość.

[Link po polsku tutaj]

Reaktancja (ang. Reactance)

Pragnienie robienia przeciwnej rzeczy do tej, której oczekiwał od nas ktoś inny, w celu udowodnienia swojej wolności wyboru.

[Link do polskiej Wiki tutaj]

Niedawność (ang. Recency)

Tendencja do traktowania ostatniej informacji jako ważniejszej od starszych informacji.

[Podobne do błędu łatwości poznawczej (ang. congitive ease), opisanego szerzej w „Pułapkach myślenia”, rozdział 5. Podobne w tym sensie, że ostatnie informacje przywołujemy z pamięci z dużo większą łatwością niż starsze. Zobacz też hasło heurystyka dostępności.]

Wzajemność (ang. Reciprocity)

Przekonanie, że uczciwość powinna górować nad innymi wartościami nawet wtedy, gdy nie jest to w naszym najlepszym interesie.

Regression bias (za Kahnemanem – zjawisko powrotu do średniej, z ang. regression to the mean)

Ludzie podejmują działania w odpowiedzi na sytuacje ekstremalne. Potem, gdy sytuacja staje się mniej ekstremalna, przypisują sobie zasługę za tę zmianę, kiedy tak naprawdę bardziej prawdopodobne wytłumaczenie jest takie, że to po prostu sytuacja powróciła do średniej.

[I znów odsyłamy czytelników do książki Daniela Kahnemana „Pułapki myślenia” – rozdział 17, Powrót do średniej.]

Złudzenie powściągliwości albo złudzenie samokontroli (ang. Restraint bias)

© flickr

Przecenianie własnej powściągliwości w obliczu pokusy.

[Link do angielskiej Wiki tutaj, link do polskiego artykułu między innymi mówiącego o iluzji samokontroli tutaj.]

Salience (dosł. wyróżnianie się, wydatność, wystawanie)

Nasza skłonność do koncentrowania się na najłatwiej rozpoznawalnej cesze osoby lub pojęcia.

Niewrażliwość na zakres (ang. Scope insensitivity albo Scope neglect)

Zachodzi wtedy, gdy gotowość do zapłacenia za coś nie ma związku ze skalą wyniku.

Ze strony Less Wrong:

Kiedyś trzy grupy badanych zapytano, ile są w stanie zapłacić żeby uratować 2 tysiące/20 tysięcy/200 tysięcy ptaków wędrownych przed utopieniem się w kałużach ropy. Odpowiedzi brzmiały: 80 dolarów, 78 dolarów i 88 dolarów. To jest właśnie niewrażliwość na zakres: liczba uratowanych ptaków – zakres altruistycznego działania – miała znikomy wpływ na gotowość poniesienia kosztów.

[Badanie opisane również w „Pułapkach myślenia”, rozdział 8, w podrozdziale: Zbiory i prototypy.]

Seer-sucker illusion (dosłownie: iluzja wiedzący-naiwniak)

Nadmierne poleganie na wskazówkach ekspertów, związane też z unikaniem odpowiedzialności. Pytamy ekspertów o ich prognozy, kiedy tak naprawdę mają taką samą szansę podania trafnej, jak i reszta społeczeństwa. Innymi słowy dla każdego przepowiadacza znajdzie się jakiś naiwniak.

Selektywna percepcja (ang. Selective perception)

Zachodzi wtedy, gdy pozwalamy naszym przekonaniom mieć wpływ na to, jak postrzegamy świat.

[Link do polskiej Wiki tutaj i do artykułu po polsku tutaj.]

Self-enhancing transmission bias (błąd autowaloryzacji)

Każdy w większym stopniu dzieli się sukcesami niż porażkami. To prowadzi do fałszywego postrzegania rzeczywistości i niemożności poprawnego ocenienia sytuacji.

[Link do polskiej Wiki tutaj]

Złudzenie status quo (ang. Status quo bias)

Skłonność do preferowania sytuacji, jaka jest. Jest to podobna skłonność do “niechęci do ponoszenia strat” (ang. loss aversion), gdzie ludzie wolą unikać strat zamiast szukać zysków.

[Artykuł po polsku tutaj.]

Stereotypowanie (ang. Stereotyping)

Oczekiwanie, że jakaś osoba lub grupa osób ma określone cechy, bez posiadania prawdziwych informacji o jednostce (lub grupie). Pojęcie to tłumaczy szybkie oceny, o jakich pisał Malcolm Gladwell w książce „Blink”. Aczkolwiek oczekiwanie stereotypu ma pewien sens, ludzie z zasady tego nadużywają.

[Link do polskiej Wiki tutaj i tutaj.]

Survivorship bias (dosł. błąd przeżywalności )

Błąd polegający na skupianiu się na tylko na przykładach przetrwania powodujący, że źle oceniamy sytuację. Na przykład możemy myśleć, że bycie przedsiębiorcą jest łatwym zadaniem, ponieważ nie słyszeliśmy o tych, którym się nie powiodło.

Tragedia wspólnego pastwiska (ang. Tragedy of the commons)

Nadużywamy wspólnych zasobów, ponieważ nie jest w interesie którejkolwiek poszczególnej osoby zachowanie ich. Tłumaczy to nadużycia naturalnych zasobów, oportunizm i wszelkie działania jednostek, które biorą górę nad interesem wspólnym.

[Artykuł po polsku tutaj – na stronie 2; uzupełniający artykuł tutaj.]

Unit bias (dosłownie: błąd jednej miary)

Wierzymy, że istnieje optymalna miara albo uniwersalnie potwierdzona właściwa ilość czegoś. Tłumaczy to, dlaczego jemy więcej, gdy dostajemy większe porcje.

Zero-risk bias (dosł. złudzenie zerowego ryzyka)

Preferencja do zmniejszania jednego małego ryzyka do zera przy istniejącej opcji osiągnięcia większej redukcji przy większym ryzyku (ale nie do zera). Ta skłonność jest bliska naszemu pragnieniu kontrolowania rzeczy, na które mamy wpływ (chociażby były to drobne rzeczy) w przeciwieństwie do kontrolowania rzeczy większej, bardziej znaczącej, której jednak nie możemy przewidzieć rezultatów.

Komentarz SOTT.net: To, czego brakuje na tej liście to na przykład:

Normalcy bias (dosł. błąd normalności, uznawania zjawisk za normalne, gdy takimi nie są). Ten błąd, gdy nie zostanie rozpoznany, może mieć fatalne skutki dla wielu ludzi w zbliżających się niespokojnych czasach. Link do angielskiej Wiki tutaj.

Od Pracowni: Wątek na Forum Cass o błędzie normalności (ang.) tutaj

Przykład z wątku:

[…] W 1999 r. przez trzy dni przetoczyła się przez stan Oklahoma seria niszczycielskich tornad. Wśród nich było jedno monstrum o potwornej sile, później nazwane Bridge Creek-Moore F5. Cząstka nazwy „F5” pochodzi od skali Fujita, która zaczyna się od EF1, a kończy na EF5, i jest miarą siły tornada. Siłę F5 osiąga mniej niż 1% tornad. Przy F4 samochody fruwają, a domy się unoszą w powietrze. Żeby tornado osiągnęło siłę F5, wiejący w nim wiatr musi osiągnąć prędkość ponad 300 km/godz. Wiatr w Bridge Creek-Moore osiągnął ok. 470km/h.

Ostrzeżenia ogłoszono z 13-minutowym wyprzedzeniem, jednak wielu ludzi nie zrobiło nic przed nadciągnięciem potwora. Ociągali się i mieli nadzieję, że zabójca ich oszczędzi. Nie próbowali szukać schronienia. Ostatecznie bestia zniszczyła 8 tysięcy domów i zabiła 36 osób. Z pewnością zginęłoby o wiele więcej ludzi, gdyby komunikatu w ogóle nie było. Dlaczego więc tylu ludzi zignorowało ostrzeżenie? […]

Artykuł po polsku tutaj. Z niego – przetłumaczona definicja z angielskiej Wiki:

Normalcy bias to stan psychiczny osiągany przez ludzi w przypadku jakiejś katastrofy. Ludzie niedoceniają zarówno szanse wystąpienia katastrofy jak i jej możliwe efekty. Jest to efekt sytuacji, w których ludzie nie przygotowują się dostatecznie na nadejście tej katastrofy, a w szerszym zakresie, gdy rządy wyłączają społeczeństwo z przygotowań. Uzasadnieniem dla tego stanu jest stwierdzenie, że skoro katastrofa nigdy nie nastąpiła, to nie wydarzy się również w przyszłości. Stan przyczynia się również do nieumiejętności radzenia sobie z nietypową sytuacją. Ludzie w tym stanie mają problemy z odpowiednim reagowaniem na zdarzenia, których nigdy wcześniej nie doświadczyli. Ludzie również mają tendencję do interpretowania sygnałów ostrzegawczych w najbardziej optymistyczny sposób.

Można jeszcze wspomnieć efekt posiadania – link tutaj.

Tłumaczenie: PRACowniA
Link do artykułu na SOTT.net

8 Komentarzy »

  1. Wspaniałe zestawienie. Dziękuję.

    Komentarz - autor: KAP1 — 8 sierpnia 2014 @ 14:24

  2. bardzo śmieszne, typowo amerykańskie. Szkoda, że oni siebie nie zbadali

    Komentarz - autor: nana — 11 września 2014 @ 21:22

  3. Dziękuję za zestawienie i odniesienia do źródeł.

    Komentarz - autor: L2B — 27 czerwca 2015 @ 11:21

  4. ostatni link martwy, właściwy: https://pracownia4.wordpress.com/2014/08/08/58-bledow-poznawczych-ktore-psuja-wszystko-co-robimy/

    Komentarz - autor: AKA — 1 sierpnia 2015 @ 08:18

  5. @ AKA
    Dzięki, poprawione.

    Komentarz - autor: iza — 3 sierpnia 2015 @ 19:00

  6. co do błędu hard – easy; nadmierna pewność siebie dotyczy (paradoksalnie) zadań trudnych, odsyłam do wiki; poza tym liczne uproszczenia

    Komentarz - autor: Bartek — 15 lipca 2020 @ 12:18

  7. jestem pod wrażeniem artykułu, częściowo z tej materii doktoryzuje się (heurystyki i błędy poznawcze).Też przygotowałem pewnego rodzaju kompendium, lecz dotyczy ogólnie błędów w myśleniu.Jest ich prawie 300, zamieszczam link w nadziei że zajrzysz i zostawisz swoje 3 grosze 🙂a może przyda się również innym czytelnikom:https://www.rafalszrajnert.pl/lista-bledow-poznawczych/

    Komentarz - autor: viprafal — 14 stycznia 2021 @ 19:33


RSS feed for comments on this post. TrackBack URI

Dodaj komentarz

Ta witryna wykorzystuje usługę Akismet aby zredukować ilość spamu. Dowiedz się w jaki sposób dane w twoich komentarzach są przetwarzane.

Blog na WordPress.com.