Literatur

Zu fast jedem Denkfehler gibt es Hunderte von Studien. Ich habe mich hier auf die wichtigsten Zitate, technischen Referenzen, Leseempfehlungen und Kommentare beschränkt. Die Zitate habe ich in der Originalsprache belassen.

The Survivorship Bias

Dubben, Hans-Hermann; Beck-Bornholdt, Hans-Peter: Der Hund, der Eier legt – Erkennen von Fehlinformation durch Querdenken, rororo, 2006, S. 238.

Survivership Bias in Fonds und Finanzmarktindizes, siehe: Elton, Edwin J.; Gruber, Martin J.; Blake, Christopher R.: »Survivorship Bias and Mutual Fund Performance«, The Review of Financial Studies 9 (4), 1996.

Statistisch relevante Ergebnisse aus Zufall (self-selection), siehe: Ioannidis, John P. A.: »Why Most Published Research Findings Are False«, PLoS Med 2 (8), e124, 2005.

The Swimmer’s Body Illusion

Taleb, Nassim Nicholas: The Black Swan, Random House, 2007, S. 109 f.

Die Überlegung zu Harvard in: Sowell, Thomas: Economic Facts and Fallacies, Basic Books, 2008, S. 105 ff.

Der Overconfidence-Effekt

Pallier, Gerry et al.: »The role of individual differences in the accuracy of confidence judgments«, The Journal of General Psychology 129 (3), 2002, S. 257 f.

Alpert, Marc; Raiffa, Howard: »A progress report on the training of probability assessors«, in: Kahneman, Daniel; Slovic, Paul; Tversky, Amos: Judgment under uncertainty: Heuristics and biases, Cambridge University Press, 1982, S. 294–305.

Hoffrage, Ulrich: »Overconfidence«, in: Pohl, Rüdiger: Cognitive Illusions: a handbook on fallacies and biases in thinking, judgement and memory, Psychology Press, 2004.

Gilovich, Thomas; Griffin, Dale; Kahneman, Daniel (Hrsg.): Heuristics and biases: The psychology of intuitive judgment, Cambridge University Press, 2002.

Vallone, R. P. et al.: »Overconfident predictions of future actions and outcomes by self and others«, Journal of Personality and Social Psychology 58, 1990, S. 582–592.

Siehe auch: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 242.

Warum Overconfidence bei Männern für die Evolution wichtig war, siehe die interessante Hypothese bei: Baumeister, Roy F.: Is there Anything Good About Men? How Cultures Flourish by Exploiting Men, Oxford University Press, 2001, S. 211 ff.

Diskussion zur Overconfidence, insbesondere der Hypothese, dass ein inflationiertes Selbstimage der eigenen Gesundheit förderlich ist, siehe: Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 217 ff. und 253.

Social Proof

Cialdini, Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, S. 114 ff.

Asch, S. E.: »Effects of group pressure upon the modification and distortion of judgment«, in: Guetzkow, H. (Hrsg.): Groups, leadership and men, Carnegie Press, 1951.

Die künstlichen Lacher, siehe: Platow, Michael J. et al. (2005): »It’s not funny if they’re laughing: Self-categorization, social influence, and responses to canned laughter«, Journal of Experimental Social Psychology 41 (5), 2005, S. 542–550.

The Sunk Cost Fallacy

Zur Concorde, siehe: Weatherhead, P. J.: »Do Savannah Sparrows Commit the Concorde Fallacy?«, Behavioral Ecology and Sociobiology 5, 1979, S. 373–381.

Arkes, H. R.; Ayton, P.: »The Sunk Cost and Concorde effects: are humans less rational than lower animals?«, Psychological Bulletin 125, 1999, S. 591–600.

Die Reziprozität

Cialdini, Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, S. 17 ff.

Reziprozität als biologische Kooperation: siehe irgendein Biologie-Grundbuch seit 1990.

Theorie ursprünglich von Robert Trivers: Trivers, R. L. (1971). The Evolution of Reciprocal Altruism. The Quarterly Review of Biology 46 (1): 35–57.

Die evolutionärpsychologische Begründung der Reziprozität, siehe: Buss, David M.: Evolutionary Psychology. The New Science of the Mind, Pearson, 1999. Siehe auch: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005.

The Confirmation Bias (Teil 1)

»What Keynes was reporting is that the human mind works a lot like the human egg. When one sperm gets into a human egg, there’s an automatic shut-off device that bars any other sperm from getting in. The human mind tends strongly toward the same sort of result. And so, people tend to accumulate large mental holdings of fixed conclusions and attitudes that are not often reexamined or changed, even though there is plenty of good evidence that they are wrong.« (Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 461 f.)

Taleb, Nassim Nicholas: The Black Swan, Random House, 2007, S. 58.

»Neue Informationen stören das Bild. Wenn man einmal zu einer Entscheidung gekommen ist, so ist man froh, der ganzen Unbestimmtheit und Unentschiedenheit der Vorentscheidungsphase entronnen zu sein.« (Dörner, Dietrich: Die Logik des Misslingens. Strategisches Denken in komplexen Situationen, Rowohlt, 2003, S. 147.

Zum Experiment mit der Zahlenreihe, siehe: Wason, Peter C.: »On the failure to eliminate hypotheses in a conceptual task«, Quarterly Journal of Experimental Psychology 12 (3), 1960, S. 129–140.

»Faced with the choice between changing one‘s mind and proving there is no need to do so, almost everyone gets busy on the proof.« (John Kenneth Galbraith)

The Confirmation Bias (Teil 2)

Stereotypisierung als Spezialfall des Confirmation Bias, siehe: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 198 f.

The Authority Bias

Als »iatrogen« werden Krankheitsbilder und Schäden bezeichnet, die durch ärztliche Maßnahmen verursacht wurden. Zum Beispiel Aderlass.

Cialdini: Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, S. 208 ff.

Zum Track-Record der Ärzte vor 1900, siehe: Arkiha, Noga: Passions and Tempers: A History of the Humours, Harper Perennial, 2008.

Nach der Finanzkrise 2008 hat es zwei weitere unerwartete Ereignisse globalen Ausmaßes (Black Swans) gegeben: die Aufstände in den arabischen Ländern (2011) und die Tsunami-Atomreaktor-Katastrophe in Japan (2011). Keine einzige von weltweit schätzungsweise 100.000 Polit- und Sicherheitsautoritäten hat diese beiden Events vorhergesehen. Grund genug, den Autoritäten zu misstrauen – besonders wenn es sich um »Experten« auf dem sozialen Gebiet (Modeströmungen, Politik, Ökonomie) handelt. Diese Leute sind nicht dumm. Sie haben einfach das Pech, dass sie eine Karriere gewählt haben, wo sie nicht gewinnen können. Es bleiben ihnen zwei Alternativen: a) zu sagen: »Ich weiß es nicht« (nicht die beste Wahl, wenn man eine Familie zu ernähren hat), oder b) die Schaumschlägerei.

Milgram, Stanley: Obedience to Authority – An Experimental View, HarperCollins, 1974. Es gibt auch eine DVD mit dem Titel Obedience, 1969.

Der Kontrasteffekt

Cialdini, Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, S. 11–16.

Charlie Munger nennt den Kontrasteffekt auch »Contrast Misreaction Tendency«. Siehe: Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 448 und S. 483.

Dan Ariely nennt den Effekt »Relativitätsproblem«. Siehe: Ariely, Dan: Predictably Irrational, Revised and Expanded Edition: The Hidden Forces That Shape Our Decisions, Harper Perennial, 2010, Kapitel 1.

Das ursprüngliche Beispiel, dass man je nach Kontrast einen großen Weg auf sich nimmt, stammt von Kahneman/Tversky. Siehe: Kahneman, Daniel; Tversky, Amos: »Prospect Theory: An Analysis of Decision under Risk«, Econometrica 47 (2), März 1979.

The Availability Bias

»You see that again and again – that people have some information they can count well and they have other information much harder to count. So they make the decision based only on what they can count well. And they ignore much more important information because its quality in terms of numeracy is less – even though it’s very important in terms of reaching the right cognitive result. We  [at Berkshire] would rather be roughly right than precisely wrong. In other words, if something is terribly important, we’ll guess at it rather than just make our judgment based on what happens to be easily accountable«. (Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 486)

Der Availability Bias ist auch der Grund, warum sich Firmen beim Risikomanagement vorwiegend auf die Finanzmarktrisiken beschränken: Dort hat man Daten en masse. Bei den operativen Risiken hingegen hat man fast keine Daten. Sie sind nicht öffentlich. Man müsste sie sich von vielen Firmen mühsam zusammenkratzen, und das ist teuer. Also stellt man Theorien auf mit dem Material, das leicht zu beschaffen ist.

»The medical literature shows that physicians are often prisoners of their first-hand experience: their refusal to accept even conclusive studies is legendary.« (Dawes, Robyn M.: Everyday Irrationality: How Pseudo-Scientists, Lunatics, and the Rest of Us Systematically Fail to Think Rationally, Westview Press, 2001, S. 102 ff.)

Das Vertrauen in die Qualität der eigenen Entscheidungen hängt allein von der Anzahl der getroffenen Entscheidungen (Vorhersagen) ab, egal wie genau oder ungenau die Entscheidungen (Vorhersagen) waren. Man kann es auch das zentrale »Consultant-Problem« bezeichnen. Siehe: Einhorn, Hillel J.; Hogarth, Robin M.: »Confidence in judgment: Persistence of the illusion of validity«, Psychological Review 85 (5), September 1978, S. 395–416.

Tversky, Amos; Kahneman, Daniel: »Availability: A heuristic for judging frequency and probability«, Cognitive Psychology 5, 1973, S. 207–232.

Die Es-wird-schlimmer-bevor-es-besser-kommt-Falle

Keine Referenzliteratur. Dieser Denkfehler ist selbsterklärend.

Story Bias

Dawes, Robyn M.: Everyday Irrationality: How Pseudo-Scientists, Lunatics, and the Rest of Us Systematically Fail to Think Rationally, Westview Press, 2001, S. 111 ff.

Turner, Mark: The Literary Mind: The Origins of Thought and Language, Oxford University Press, 1998.

Der Rückschaufehler

Zu Reagans Wahlsieg: Stacks, John F.: »Where the Polls Went Wrong«, Time Magazine 1/12/1980.

Fischoff, B.: »An early history of hindsight research«, Social Cognition 25, 2007, S. 10–13.

Blank, H.; Musch, J.; Pohl, R. F.: »Hindsight Bias: On Being Wise After the Event«, Social Cognition 25 (1), 2007, S. 1–9.

Das Chauffeur-Wissen

Die Geschichte mit Max Planck findet sich in: »Charlie Munger – USC School of Law Commencement – May 13, 2007«. Abgedruckt in: Munger, Charlie: Poor Charlie’s Almanack, Donning, 2008, S. 436.


»Again, that is a very, very powerful idea. Every person is going to have a circle of competence. And it’s going to be very hard to enlarge that circle. If I had to make my living as a musician … I can’t even think of a level low enough to describe where I would be sorted out to if music were the measuring standard of the civilization. So you have to figure out what your own aptitudes are. If you play games where other people have their aptitudes and you don’t, you’re going to lose. And that’s as close to certain as any prediction that you can make. You have to figure out where you’ve got an edge. And you’ve got to play within your own circle of competence.« (Munger,Charlie: »A Lesson on Elementary Worldly Wisdom as It Relates to Investment Management and Business«, University of Southern California, 1994 in Poor Charlie’s Almanack, Donning, 2008, S. 192)

Die Kontrollillusion

Das Beispiel mit den Giraffen aus Mayer, Christopher: »Illusion of Control – No One Can Control the Complexity and Mass of the U.S. Economy«, Freeman – Ideas on Liberty 51 (9), 2001.

Zum Würfeln im Kasino: Henslin, J. M.: »Craps and magic«, American Journal of Sociology 73, 1967, S. 316–330.

Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 171.

Der Psychologe Roy Baumeister hat nachgewiesen, dass Menschen mehr Schmerz tolerieren, wenn sie das Gefühl haben, sie würden eine Krankheit verstehen. Chronisch Kranke gehen viel besser mit ihrer Krankheit um, wenn der Arzt ihnen einen Namen für die Krankheit gibt und ihnen erklärt, was es mit der Krankheit auf sich hat. Das muss nicht einmal wahr sein. Der Effekt funktioniert selbst dort, wo es nachweislich kein Mittel gegen die Krankheit gibt. Siehe: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 97 ff.

Das klassische Paper dazu: Rothbaum, Fred; Weisz, John R.; Snyder, Samuel S.: »Changing the world and changing the self: A two-process model of perceived control«, Journal of Personality and Social Psychology 42 (1), 1982, S. 5–37.

Jenkins, H. H.; Ward, W. C.: »Judgement of contingency between responses and outcomes«, Psychological Monographs 79 (1), 1965.

Zu den Placeboknöpfen gibt es diese vier Referenzen:

Lockton, Dan: »Placebo buttons, false affordances and habit-forming«, Design with Intent, 2008: http://architectures.danlockton.co.uk/2008/10/01/placebo-buttons-false-affordances-and-habit-forming/

Luo, Michael: »For Exercise in New York Futility, Push Button«, New York Times, 27.02.2004.

Paumgarten, Nick: »Up and Then Down — The lives of elevators«, The New Yorker, 21.04.2008.

Sandberg, Jared: »Employees Only Think They Control Thermostat«, The Wall Street Journal, 15.01.2003.

Die Incentive-Superresponse-Tendenz

Munger Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 450 ff.

Die Geschichte mit den Fischen, ebenda S. 199.

»Perhaps the most important rule in management is: ›Get the incentives right.‹« (ebenda S. 451).

»Fear professional advice when it is especially good for the advisor.« (»The Psychology of Human Misjudgment«, in: ebenda S. 452).

Die Regression zur Mitte

Vorsicht: Die Regression zur Mitte ist kein kausaler Zusammenhang, sondern ein rein statistischer.

Kahneman: »I had the most satisfying Eureka experience of my career while attempting to teach flight instructors that praise is more effective than punishment for promoting skill-learning. When I had finished my enthusiastic speech, one of the most seasoned instructors in the audience raised his hand and made his own short speech, which began by conceding that positive reinforcement might be good for the birds, but went on to deny that it was optimal for flight cadets. He said, ›On many occasions I have praised flight cadets for clean execution of some aerobatic maneuver, and in general when they try it again, they do worse. On the other hand, I have often screamed at cadets for bad execution, and in general they do better the next time. So please don‘t tell us that reinforcement works and punishment does not, because the opposite is the case.‹ This was a joyous moment, in which I understood an important truth about the world.« (Quote: See Wikipedia entry Regression Toward The Mean)

Siehe auch: Frey, Ulrich; Frey, Johannes: Fallstricke, Beck, 2009, S. 169 ff.

Die Tragik der Allmende

Hardin, Garrett: »The Tragedy of the Commons«, Science 162, 1968, S. 1243–1248.


Siehe auch sein Buch zum Thema: Hardin, Garrett; Baden, John: Managing the Commons, San Francisco, 1977.

Die Wirtschaftsnobelpreisträgerin Elinor Ostrom sieht in ihrem Buch Governing the Commons: The Evolution of Institutions for Collective Action (deutsch: Die Verfassung der Allmende) die Tragik der Allmende nicht ganz so schwarz und weiß, wie sie Hardin sieht. Die Beteiligten können sich ja auch selbst organisieren. Dazu braucht es weder einen wohlwollenden Diktator noch Privatisierung. Selbstorganisation der Beteiligten genügt. Allerdings ist Selbstorganisation auch eine Art des »Managements«, wie es Hardin versteht. Ostrom steht somit nicht im Gegensatz zu Hardin.

The Outcome Bias

Die Geschichte mit den Affen, siehe: Malkiel, Burton Gordon: A Random Walk Down Wall Street: The Time-tested Strategy for Successful Investing, W. W. Norton, 1973.

Baron, J.; Hershey, J. C.: »Outcome bias in decision evaluation«, Journal of Personality and Social Psychology 54 (4), 1988, S. 569–579.

Falls Sie das Beispiel der Chirurgen nachrechnen möchten, nehmen Sie irgendein Statistikhandbuch und schlagen Sie das Kapitel »Ziehen aus einer Urne mit Zurücklegen« auf.

Siehe auch: Taleb, Nassim Nicholas: Fooled by Randomness, Second Edition, Random House, 2008, S. 154.

Zum Historikerirrtum, siehe auch: Fischer, David Hackett: Historians’ Fallacies: Toward a Logic of Historical Thought, Harper Torchbooks, 1970, S. 209–213.

Das Auswahl-Paradox

Beide Videos von Barry Schwartz auf TED.com.

Schwartz, Barry: The Paradox of Choice: Why More Is Less, Harper, 2004

Die Probleme des Auswahl-Paradoxes sind noch gravierender als im Text dargestellt. Laborstudien haben bestätigt, dass das Entscheiden Energie verbraucht, die dann später fehlt, wenn man sich gegen emotionale Impulse zur Wehr setzen will. (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press,2005, S. 316 ff.)

Botti, S.; Orfali, K.; Iyengar, S. S.: »Tragic Choices: Autonomy and Emotional Response to Medical Decisions«, Journal of Consumer Research 36 (3), 2009, S. 337–352.

Iyengar, S. S.; Wells, R. E.; Schwartz, B.: »Doing Better but Feeling Worse: Looking for the ›Best‹ Job Undermines Satisfaction«, Psychological Science 17 (2), 2006, S. 143–150.

»Letting people think they have some choice in the matter is a powerful tool for securing compliance.« (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 323)

The Liking Bias

Girard, Joe: How To Sell Anything To Anybody, Fireside, 1977.

»We rarely find that people have good sense unless they agree with us.« (La Rochefoucauld)

Cialdini hat ein ganzes Kapitel dem Liking Bias gewidmet: Cialdini, Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, Kapitel 5.

Der Endowment-Effekt

Das Beispiel von Charlie Munger, siehe: Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 479.

Ariely, Dan: Predictably Irrational. The Hidden Forces that Shape Our Decisions, HarperCollins, 2008, Chapter: »The High Price of Ownership«.

Kahneman, D.; Knetsch, Jack L.; Thaler, R.: »Experimental Test of the endowment effect and the Coase Theorem«, Journal of Political Economy, 98 (6), 1991, 1325–1348.

Carmon, Z.; Ariely, D.: »Focusing on the Forgone: How Value Can Appear So Different to Buyers and Sellers«, Journal of Consumer Research, Vol. 27, 2000.

»Cutting your losses is a good idea, but investors hate to take losses because, tax considerations aside, a loss taken is an acknowledgment of error. Loss-aversion combined with ego leads investors to gamble by clinging to their mistakes in the fond hope that some day the market will vindicate their judgment and make them whole.« (Bernstein, Peter L.: Against the Gods – The Remarkable Story of Risk, Wiley, 1996, S. 276 und S. 294)

»A loss has about two and a half times the impact of a gain of the same magnitude.« (Ferguson, Niall: The Ascent of Money – A Financial History of the World, Penguin Press, 2008, S. 345)

»Losing ten dollars is perceived as a more extreme outcome than gaining ten dollars. In a sense, you know you will be more unhappy about losing ten dollars than you would be happy about winning the same amount, and so you refuse, even through a statistician or accountant would approve of taking the bet.« (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 319 ff.)

Je mehr Arbeit wir für etwas investieren, desto stärker das Gefühl des Besitzes. Das wird auch IKEA-Effekt genannt.

IKEA Effect, siehe Dan Arielys Website: http://danariely.com/tag/ikea- effect/

Das Wunder

Die Geschichte mit der Explosion der Kirche in: Nichols, Luke: »Church explosion 60 years ago not forgotten«, Beatrice Daily Sun, 1. März 2010.

Siehe auch: Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 164.

Für eine gute Diskussion um Wunder, siehe: Bevelin, Peter: Seeking Wisdom. From Darwin to Munger, Post Scriptum, 2003, S. 145.

Groupthink

Janis, Irving L.: Groupthink: Psychological Studies of Policy Decisions and Fiascoes, Cengage Learning, 1982.

Wilcox, Clifton: Groupthink, Xlibris Corporation, 2010.

Eine Art Gegenteil von Groupthink ist Schwarmintelligenz (Surowiecki, James: The Wisdom of the Crowds, Doubleday, 2004). Und das geht so: »Die große Masse von durchschnittlichen Menschen (also kein Pool von Fachleuten) findet of erstaunlich richtige Lösungen – sie liegen allerdings auch mal grotesk daneben. Das hat schon Francis Galson  [1907] in einem hübschen Experiment nachgewiesen: Er besuchte eine Viehausstellung, bei der ein Wettbewerb veranstaltet wurde, um das Gewicht eines Ochsen zu schätzen. Galton war der Meinung, dass die Messebesucher dazu nicht in der Lage seien, und beschloss, die fast 800 Schätzungen statistisch auszuwerten. Der Mittelwert aller Schätzungen (1.197 Pfund) kam aber dem tatsächlichen Gewicht des Ochsen (1.207 Pfund) erstaunlich nahe – Galtons Vorurteil war somit widerlegt.« (Jürgen Beetz: Denken, Nach-Denken, Handeln: Triviale Einsichten, die niemand befolgt, Alibri, 2010, S. 122)

Groupthink kommt zustande bei Interaktion der Teilnehmer. Schwarmintelligenz hingegen, wenn die Akteure unabhängig voneinander handeln (zum Beispiel eine Schätzung abgeben) – was immer seltener der Fall ist. Schwarmintelligenz ist kaum wissenschaftlich replizierbar.

The Neglect of Probability

Monat, Alan; Averill, James R.; Lazarus, Richard S.: »Anticipatory stress and coping reactions under various conditions of uncertainty«, Journal of Personality and Social Psychology 24 (2), November 1972, S. 237–253.

»Probabilities constitute a major human blind spot and hence a major focus for simplistic thought. Reality (especially social reality) is essentially probabilistic, but human thought prefers to treat it in simple, black-and-white categories.« (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 206)

Weil wir kein intuitives Verständnis für Wahrscheinlichkeiten haben, haben wir auch kein intuitives Verständnis für Risiko. So braucht es immer wieder Börsencrashs, um unsichtbare Risiken sichtbar zu machen. Es hat erstaunlich lange gedauert, bis die Ökonomen dies verstanden haben. Siehe: Bernstein, Peter L.: Against the Gods, The Remarkable Story of Risk, Wiley, 1996, S. 247 ff.

Was viele Ökonomen und Anleger allerdings noch nicht begriffen haben: Volatilität ist ein schlechtes Maß für Risiko. Und doch verwenden sie es in ihren Bewertungsmodellen. »How can professors spread this nonsense that a stock’s volatility is a measure of risk? I’ve been waiting for this craziness to end for decades.« (Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 101)

Für eine komplette Diskussion, wie (falsch) wir Risiko wahrnehmen: Slovic, Paul: The Perception of Risk, Earthscan, 2000.

The Zero-Risk Bias

Rottenstreich, Y.; Hsee, C. K.: »Money, kisses, and electric shocks: on the affective psychology of risk«, Psychological Science 12, 2001, S. 185–190.

Siehe auch: Slovic, Paul et al.: »The Affect Heuristic«, in: Gilovich, Thomas; Griffin, Dale; Kahneman, Daniel: Heuristics and Biases, Cambridge University Press, 2002, S. 409.

An example is the Delaney clause of the Food and Drug Act of 1958, which stipulated a total ban on synthetic carcinogenic food additives.

Der Knappheitsirrtum

Cialdini, Robert B.: Influence: The Psychology of Persuasion, Collins, paperback edition, 2007, S. 237 ff.

Zu den Keksen, siehe: Worchel, Stephen; Lee, Jerry; Adewole, Akanbi: »Effects of supply and demand on ratings of object value«, Journal of Personality and Social Psychology 32 (5), November 1975, S. 906–991.

Zu den Postern, siehe: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 102.

The Base-Rate Neglect

Das Beispiel mit dem Mozart-Fan, siehe: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 206 f.

Kahneman, Daniel; Tversky, Amos: »On the psychology of prediction«, Psychological Review 80, 1973, S. 237–251.

Siehe auch: Gigerenzer, Gerd: Das Einmaleins der Skepsis. Über den richtigen Umgang mit Zahlen und Risiken, 2002.

Siehe auch: Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 115 ff.

Der Spielerfehlschluss

Der Spielerfehlschluss wird auch Monte-Carlo-Fehlschluss genannt. Das Beispiel von 1913 ist hier enthalten: Lehrer, Jonah: How We Decide, Houghton Mifflin Harcourt, 2009, S. 66.

Das Beispiel der IQs: Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 113.

Siehe auch: Gilovich, Thomas; Vallone, Robert; Tversky, Amos: »The Hot Hand in Basketball: On the Misperception of Random Sequences«, in: Gilovich, Thomas; Griffin, Dale; Kahneman, Daniel: Heuristics and Biases, Cambridge University Press, 2002, S. 601 ff.

Der Anker

Zu den Sozialversicherungsnummern und dem Glücksrad, siehe: Ariely, Dan: Pedictibly Irrational, HarperCollins, 2008, Chapter 2. Siehe auch: Tversky, Amos; Kahneman, Daniel: »Judgment under Uncertainty: Heuristics and Biases«, Science 185, 1974, S. 1124–1131.

Das Beispiel mit Luther in modifizierter Form, siehe: Epley, Nicholas; Gilovich, Thomas: »Putting Adjustment Back in the Anchoring and Adjustment Heuristic«, in: Gilovich, Thomas; Griffin, Dale; Kahneman, Daniel: Heuristics and Biases, Cambridge University Press, 2002, S. 139 ff.

Nochmals leicht modifiziert in: Frey, Ulrich; Frey, Johannes: Fallstricke, Beck, 2009, S. 40.

Zu Attila, siehe: Russo, J. E.; Shoemaker, P. J. H: Decision Traps, Simon & Schuster, 1989, S. 6.

Zur Preisschätzung der Häuser, siehe: Northcraft, Gregory B.; Neale, Margaret A.: »Experts, Amateurs, and Real Estate: An Anchoring-and-Adjustment Perspective on Property Pricing Decisions«, Organizational Behavior and Human Decision Processes 39, 1987, S. 84–97.

Anchoring in Verhandlungs- und Verkaufssituationen, siehe: Ritov, Ilana: »Anchoring in a simulated competitive market negotiation« Organizational Behavior and Human Decision Processes 67, 1996, 16–25. Reprinted in: Bazerman, M. H. (Hrsg.): Negotiation, Decision Making, and Conflict Resolution, Vol. 2, Edward Elgar Publishers, 2005.

Die Induktion

Das Beispiel mit der Gans bei Nassim Taleb in Form des Thanksgiving-Truthahns. Taleb hat das Beispiel von Bertrand Russell übernommen (Hähnchen), und dieser wiederum von David Hume. Taleb, Nassim Nicholas: The Black Swan, Random House, 2007, S. 40.

Induktion ist eines der großen Themen der Erkenntnisphilosophie: Wie können wir etwas über die Zukunft aussagen, wenn wir nichts anderes als die Vergangenheit haben? Antwort: Wir können es nicht. Jede Induktion ist immer mit Unsicherheit behaftet. Dasselbe mit Kausalität: Wir können nie wissen, ob etwas kausal aufeinanderfolgt, selbst wenn wir es eine Million Mal beobachtet haben. David Hume hat diese Themen im 18. Jahrhundert mit Brillanz behandelt.

Die Verlustaversion

Dass ein Verlust etwa doppelt so schwer wiegt wie ein Gewinn, siehe: Kahneman, Daniel; Tversky, Amos: »Prospect Theory: An Analysis of Decision under Risk«, Econometrica 47 (2), März 1979, S. 273.

Das Beispiel mit der Kampagne zur Früherkennung von Brustkrebs, siehe: Meyerowitz, Beth E.; Chaiken, Shelly: »The effect of message framing on breast self-examination attitudes, intentions, and behavior«, Journal of Personality and Social Psychology 52 (3), März 1987, S. 500–510.

Wir reagieren stärker auf negative Reize als auf positive. Siehe: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 201 und S. 319.

Dass wir nicht die einzige Spezies mit Verlustaversion sind, beschreibt dieses Forschungspapier. Affen zeigen diesen Denkfehler auch: Silberberg, A. et al.: »On loss aversion in capuchin monkeys«, Journal of the Experimental Analysis of Behavior 89, 2008, S. 145–155.

Social Loafing

Kravitz, David A.; Martin, Barbara: »Ringelmann rediscovered: The original article«, Journal of Personality and Social Psychology 50 (5), 1986, S. 936–941.

Latané, B.; Williams, K. D.; Harkins, S.: »Many hands make light the work: The causes and consequences of social loafing«, Journal of Personality and Social Psychology 37 (6), 1979, S. 822–832.

Siehe auch: Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 193.

Zum Risky Shift, siehe: Pruitt, D.: »Choice shifts in group discussion: An introductory review«, Journal of Personality and Social Psychology 20 (3), 1971, S. 339–360 und Moscovici, S.; Zavalloni, M.: »The group as a polarizer of attitudes«, Journal of Personality and Social Psychology 12, 1969, S. 125–135.

Das exponentielle Wachstum

Das Beispiel mit den 30 Tagen: Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 366.

Gute Beispiele zum exponentiellen Wachstum, siehe: Dörner, Dietrich: Die Logik des Misslingens. Strategisches Denken in komplexen Situationen, Rowohlt, 2003, S. 161 ff.

Siehe auch: Dubben, Hans-Hermann; Beck-Bornholdt, Hans-Peter: Der Hund, der Eier legt. Erkennen von Fehlinformation durch Querdenken, rororo, 2006, S. 120 ff.

Exponentielles Bevölkerungswachstum war auch das Thema der 1970er-Jahre, als die Verknappung der Ressourcen zum ersten Mal ins Blickfeld der Öffentlichkeit geriet. Siehe: Meadows, Donella H. et al.: The Limits to Growth, University Books, 1972. Die New Economy mit ihrem Glauben an Wachstum ohne Inflation und Ressourcenknappheit hat dieses Thema von Tisch gefegt. Seit der Rohstoffknappheit 2007 wissen wir, dass das Thema nicht vom Tisch ist. Ganz im Gegenteil. Die Weltbevölkerung wächst noch immer exponentiell.

The Winner’s Curse

Der Klassiker zum Thema: Thaler, Richard: »The Winner’s Curse«, Journal of Economic Perspectives 1, 1988.

Wenn es darum geht, den anderen auszustechen, siehe: Malhotra, Deepak: »The desire to win: The effects of competitive arousal on motivation and behavior«, Organizational Behavior and Human Decision Processes 111 (2), März 2010, S. 139–146.

Wie viel würden Sie für 100 Euro bezahlen? Beispiel von Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 248.

»Warren Buffett’s rule for open-outcry auctions: don’t go.« Charlie Munger on the Psychology of Human Misjudgment. Rede an der Harvard University, Juni 1995.

Der fundamentale Attributionsfehler

Der Stanford-Psychologe Lee Ross hat zum ersten Mal den fundamentalen Attributionsfehler beschrieben, siehe: Ross, L.: »The intuitive psychologist and his shortcomings: Distortions in the attribution process«, in: Berkowitz, L. (Hrsg.): Advances in experimental social psychology (vol. 10), Academic Press, 1977.

Das Experiment mit der Rede, siehe: Jones, E. E.; Harris, V. A.: »The attribution of attitudes«, Journal of Experimental Social Psychology 3, 1967, S. 1–24.

Siehe auch: Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 180 f.

Die falsche Kausalität

Dubben, Hans-Hermann; Beck-Bornholdt, Hans-Peter: Der Hund, der Eier legt. Erkennen von Fehlinformation durch Querdenken, rororo, 2006, S. 175 ff.

Das schöne Beispiel mit den Störchen, ebenda S. 181.

Bücher im Haushalt, siehe: National Endowment for the Arts: To Read or Not To Read: A Question of National Consequence, November 2007.

The Halo Effect

Das ultimative Buch für den Halo Effect in der Wirtschaft, von hier auch das Cisco-Beispiel: Rosenzweig, P.: The Halo Effect: and the Eight Other Business Delusions That Deceive Managers, Free Press, 2007.

Thorndike, E. L.: »A constant error on psychological rating«, Journal of Applied Psychology IV, 1920, S. 25–29.

Nisbett, Richard E.; Wilson, Timothy D.: »The halo effect: Evidence for unconscious alteration of judgments«, Journal of Personality and Social Psychology 35 (4), 1977, S. 250–256.

Die alternativen Pfade

Das Beispiel mit dem Russisch Roulette: Taleb, Nassim Nicholas: Fooled By Randomness, Random House, 2001, S. 23.

»It is hard to think of Alexander the Great or Julius Caesar as men who won only in the visible history, but who could have suffered defeat in others. If we have heard of them, it is simply because they took considerable risks, along with thousands of others, and happened to win. They were intelligent, courageous, noble (at times), had the highest possible obtainable culture in their day – but so did thousands of others who live in the musty footnotes of history.« (Taleb, Nassim Nicholas: Fooled by Randomness, Random House, 2001, S. 34)

»My argument is that I can find you a security somewhere among the 40,000 available that went up twice that amount every year without fail. Should we put the social security money into it?« (ebenda S. 146)

Die Prognoseillusion

Tetlock, Philip E.: How Accurate Are Your Pet Pundits? Project Syndicate/Institute for Human Sciences, 2006.

Koehler, Derek J.; Brenner, Lyle; Griffin, Dale: »The Calibration of Expert Judgment. Heuristics and biases beyond the laboratory «, in: Gilovich, Dale Griffin and Daniel Kahneman (Hrsg.): Heuristics and Biases. The Psychology of Intuitive Judgment, Cambridge University Press, 2002, S. 686.

»The only function of economic forecasting is to make astrology look respectable.« (John Kenneth Galbraith,http://news.bbc.co.uk/2/hi/busi ness/4960280.stm)

Der Prognose-Spruch von Tony Blair in: Buehler, Roger; Griffin, Dale; Ross, Michael: »Inside the planning fallacy: The causes and consequences of optimistic time predictions«, in: Gilovich, Thomas; Griffin, Dale; Kahneman, Daniel (Hrsg.): Heuristics and biases: The psychology of intuitive judgment, Cambridge University Press, 2002, S. 270.

»There have been as many plagues as wars in history, yet always plagues and wars take people equally by surprise.« (Albert Camus, The Plague)

»I don’t read economic forecasts. I don’t read the funny papers.« (Warren Buffett)

Harvard-Professor Theodore Levitt: »It’s easy to be a prophet. You make twenty-five predictions and the ones that come true are the ones you talk about.« (Bevelin, Peter: Seeking Wisdom. From Darwin to Munger, Post Scriptum, 2003, S. 145)

»There are 60,000 economists in the U.S., many of them employed full-time trying to forecast recessions and interest rates, and if they could do it successfully twice in a row, they‘d all be millionaires by now … as far as I know, most of them are still gainfully employed, which ought to tell us something.« (Lynch, Peter: One Up On Wall Street, Simon Schuster, 2000)

Und weil dieser Satz so knackig war, hier gleich noch ein Zitat aus dem gleichen Buch: »Thousands of experts study overbought indicators, oversold indicators, head-and-shoulder patterns, put-call ratios, the Fed’s policy on money supply, foreign investment, the movement of the constellations through the heavens, and the moss on oak trees, and they can’t predict markets with any useful consistency, any more than the gizzard squeezers could tell the Roman emperors when the Huns would attack.« (ebenda) Börsenanalysten sind besonders gut im Nachhinein-Prognostizieren: »The analysts and the brokers. They don‘t know anything. Why do they always downgrade stocks after the bad earnings come out? Where‘s the guy that downgrades them before the bad earnings come out? That‘s the smart guy. But I don‘t know any of them. They‘re rare, they‘re very rare. They‘re rarer than Jesse Jackson at a Klan meeting.« (Perkins, Marc: 2000 TheStreet.com)

The Conjunction Fallacy

Die Geschichte mit Klaus ist eine modifizierte Variante der sogenannten »Linda-Geschichte« bei Tversky und Kahneman: Tversky, Amos; Kahneman, Daniel: »Extension versus intuitive reasoning: The conjunction fallacy in probability judgment«, Psychological Review 90 (4), Oktober 1983, S. 293–331 . Die Conjunction Fallacy wird deshalb auch »Linda-Problem« genannt.

Das Beispiel mit dem Ölverbrauch ist ein bisschen modifiziert und vereinfacht. Das Originalbeispiel hier: Tversky, Amos; Kahneman, Daniel: »Extensional versus intuitive reasoning: The conjunction fallacy in probability judgment«, Psychological Review 90 (4), Oktober 1983, S. 293–315.

Zu den beiden Arten des Denkens – intuitiv vs. rational bzw. System 1 vs. System 2, siehe: Kahneman, Daniel: »A perspective on judgement and choice«, American Psychologist 58, 2003, S. 697–720.

Framing

Tversky, Amos; Kahneman, Daniel: »The Framing of Decisions and the Psychology of Choice«, Science, New Series, Vol. 211, 1981, S. 453–458.

Der Framing-Effekt in der Medizin, siehe: Dawes, Robyn M.: Everyday Irrationality: How Pseudo-Scientists, Lunatics, and the Rest of Us Systematically Fail to Think Rationally, Westview Press, 2001, S. 3 ff.

Shepherd, R. et al.: »The effects of information on sensory ratings and preferences: The importance of attitudes«, Food Quality and Preference 3 (3), 1991–1992, S. 147–155.

The Action Bias

Bar-Eli, Michael et al.: »Action Bias among Elite Soccer Goalkeepers: The Case of Penalty Kicks«, Journal of Economic Psychology 28 (5), 2007, S. 606–621.

Warren Buffett verweigert sich erfolgreich dem Action Bias: »We don’t get paid for activity, just for being right. As to how long we’ll wait, we’ll wait indefinitely.« (Buffett, Warren: Berkshire Hathaway Annual Meeting 1998)

»The stock market is a no-called-strike game. You don’t have to swing at everything – you can wait for your pitch. The problem when you’re a money manager is that your fans keep yelling, ›Swing, you bum!‹« (Buffett, Warren: Berkshire Hathaway Annual Meeting 1999)

»It takes character to sit there with all that cash and do nothing. I didn’t get to where I am by going after mediocre opportunities.« (Munger, Charlie: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 61)

»Charlie realizes that it is difficult to find something that is really good. So, if you say ›No‹ ninety percent of the time, you’re not missing much in the world.« (ebenda S. 99)

»There are huge advantages for an individual to get into a position where you make a few great investments and just sit on your ass: You’re paying less to brokers. You’re listening to less nonsense.« (ebenda S. 209)

The Omission Bias

Baron, Jonathan: Thinking and Deciding, Cambridge University Press, 1988, 1994, 2000.

Asch, D. A. et al.: »Omission bias and pertussis vaccination«, Medical Decision Making 14, 1994, S. 118–124.

Baron, Jonathan; Ritov, Ilana: »Omission bias, individual differences, and normality«, Organizational Behavior and Human Decision Processes 94, 2004, S. 74–85.

Siehe auch: »Der Unterlassungseffekt«, Kapitel aus der Dissertation: Schweizer, Mark: Kognitive Täuschungen vor Gericht, Zürich, 2005.

The Self-Serving Bias

Schlenker, B. R.; Miller, R. S.: »Egocentrism in groups: Self-serving biases or logical information processing?«, Journal of Personality and Social Psychology 35, 1977, S. 755–764.

Miller, D. T.; Ross, M.: »Self-serving biases in the attribution of causality: Fact or fiction?«, Psychological Bulletin 82, 1975, S. 213–225.

Arkin, R. M.; Maruyama, G. M.: »Attribution, affect and college exam performance«, Journal of Educational Psychology 71, 1979, S. 85–93.

Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 215 ff.

»Of course you also want to get the self-serving bias out of your mental routines. Thinking that what’s good for you is good for the wider civilization, and rationalizing foolish or evil conduct, based on your subconscious tendency to serve yourself, is a terrible way to think.« (Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 432)

Der Versuch mit den Schulnoten, siehe: Johnson, Joel T. et al.: »The ›Barnum effect‹ revisited: Cognitive and motivational factors in the acceptance of personality descriptions«, Journal of Personality and Social Psychology 49 (5), November 1985, S. 1378–1391.

Zu den Schulnoten, siehe auch das Video: Ariely, Dan: Why we think it’s OK to cheat and steal (sometimes) auf TED.com.

Ross, M.; Sicoly, F.: »Egocentric biases in availability and attribution«, Journal of Personality and Social Psychology 37, 1979, S. 322–336.

The Hedonic Treadmill

Taleb, Nassim Nicholas: The Black Swan, Random House, 2007, S. 91.

Gilbert, Daniel T. et al.: »Immune neglect: A source of durability bias in affective forecasting«, Journal ofPersonality and Social Psychology 75 (3), 1998, S. 617–638.

Gilbert, Daniel T.; Ebert, Jane E. J.: »Decisions and Revisions: The Affective Forecasting of Changeable Outcomes«, Journal of Personality and Social Psychology 82 (4), 2002, S. 503–514.

Gilbert, Daniel T.: Stumbling on happiness, Alfred A. Knopf, 2006.

Gilbert, Daniel T.: Why are we happy?,(Video) auf TED.com.

Frey, Bruno S.; Stutzer, Alois: Happiness and Economics: How the Economy and Institutions Affect Human Well-Being, Princeton, 2001.

Die Studie zu den Brustimplantaten hat es – dem Thema entsprechend – in Windeseile in viele Lifestyle-Publikationen geschafft. Die Stichprobe (112 Frauen) ist allerdings recht bescheiden. Siehe: Young, V. L.; Nemecek, J. R., Nemecek, D. A.: »The efficacy of breast augmentation: breast size increase, patient satisfaction, and psychological effects«, Plastic and Reconstructive Surgery 94 (7), Dezember 1994, S. 958–969.

The Self-Selection Bias

»A more deliberate form of self selection bias often occurs in measuring the performance of investment managers. Typically, a number of funds are set up that are initially incubated: kept closed to the public until they have a track record. Those that are successful are marketed to the public, while those that are not successful remain in incubation until they are. In addition, persistently unsuccessful funds (whether in an incubator or not) are often closed, creating survivorship bias. This is all the more effective because of the tendency of investors to pick funds from the top of the league tables regardless of the performance of the manager’s other funds.« (Zitiert aus Moneyterms.co.uk)

»It is not uncommon for someone watching a tennis game on television to be bombarded by advertisements for funds that did (until that minute) outperform other by some percentage over some period. But, again, why would anybody advertise if he didn’t happen to outperform the market? There is a high probability of the investment coming to you if its success is caused entirely by randomness. This phenomenon is what economists and insurance people call adverse selection.« (Taleb, Nassim Nicholas: Fooled by Randomness, Second Edition, Random House, 2008, S. 158)

»Gibt es in der Natur vielleicht Dinge und Ereignisse, von denen wir nie etwas erfahren, weil sie unser Gehirn nicht bewältigt?« (Vollmer, Gerhard: Evolutionäre Erkenntnistheorie, Hirzel, 2002, S. 135)

»Der Erkenntnisapparat muss nicht perfekt sein. Dass er nicht ideal sein muss, zeigt auch der Vergleich mit Tieren, die ja auch überleben, obwohl ihr Erkenntnisapparat weit weniger gut arbeitet.« (ebenda S. 137)

The Association Bias

Die Geschichte mit dem Gasleck siehe: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 280.

Buffett will die schlechten Nachrichten hören, und zwar ohne Umschweife. Die guten Meldungen können warten. Siehe: Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 472.

»Don’t shoot the messenger« kommt erstmals bei Shakespeare vor, und zwar in Henry IV, Teil 2, 1598.

In vielen Staaten, unter anderem im Neuengland des 18. Jahrhunderts, gab es den Job als »Town Crier« (Stadtschreier). Seine Aufgabe bestand darin, oftmals schlechte Nachrichten zu verbreiten – zum Beispiel Steuererhöhungen. Um dem »Kill-the-messenger-Syndrom« Herr zu werden, verabschiedeten die Städte Gesetze (vermutlich wieder vom Stadtschreier verlesen), die Verletzungen oder Beschimpfungen des Stadtschreiers mit der höchsten Strafe ahndeten. Heute sind wir nicht mehr so zivilisiert. Wir stecken die lautesten »Schreier« kurzum ins Gefängnis – siehe Julian Assange, Gründer von Wikileaks.

Das Anfängerglück

Taleb, Nassim Nicholas: The Black Swan, Random House, 2007, S. 109.

Die kognitive Dissonanz

Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 22 ff.

Das Klassiker-Paper zur kognitiven Dissonanz: Festinger, Leon; Carlsmith, James M.: »Cognitive Consequences of Forced Compliance«, Journal of Abnormal and Social Psychology 58, 1959.

Elster, Jon: Sour Grapes: Studies in the Subversion of Rationality, Cambridge University Press, 1983, S. 123 ff.

Eine der Stärken des Investors George Soros ist laut Taleb die komplette Absenz von kognitiver Dissonanz. Soros kann seine Meinung von einer Sekunde auf die andere ändern – ohne das geringste Gefühl von Peinlichkeit. Siehe: Taleb, Nassim Nicholas: Fooled by Randomness, Second Edition, Random House, 2008, S. 239.

The Hyperbolic Discounting

Es gibt eine Reihe von Forschungsberichten zum Hyperbolic Discounting. Das erste Forschungspapier: Thaler, R. H.: »Some Empirical Evidence on Dynamic Inconsistency«, Economic Letters 8, 1981, S. 201–207.

Zum Marshmallow-Test, siehe: Shoda, Yuichi; Mischel, Walter; Peake, Philip K.: »Predicting Adolescent Cognitive and Self-Regulatory Competencies from Preschool Delay of Gratification: Identifying Diagnostic Conditions«, Developmental Psychology 26 (6), 1990, S. 978–986.

Siehe dazu auch ein hervorragender Artikel im New Yorker: Lehrer, Jonah: »Don’t! The secret of self-control«, 18. Mai 2009.

»The ability to delay gratification is very adaptive and rational, but sometimes it fails and people grab for immediate satisfaction. The effect of the immediacy resembles the certainty effect: … underneath the sophisticated thinking process of the cultural animal there still lurk the simpler needs and inclinations of the social animals. Sometimes they win out.« (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 320 f.)

Wie steht es bei ganz langen Zeiträumen? Angenommen, Sie führen ein Restaurant, und ein Gast schlägt Ihnen vor, die Rechnung von 100 Euro nicht heute zu begleichen, sondern Ihnen in 30 Jahren 1.700 Euro zu überweisen – was einem schönen Zinssatz von 10 % entspricht. Würden Sie darauf einsteigen? Wohl kaum. Wer weiß schon, was in 30 Jahren ist. Haben Sie nun einen Denkfehler begangen? Nein. Im Gegensatz zum Hyperbolic Discounting sind höhere Zinssätze bei großen Zeiträumen durchaus angebracht. In der Schweiz stand (vor Fukushima) der Plan zum Bau eines AKWs mit einem Payback von 30 Jahren zur Debatte. Ein idiotischer Plan. Wer weiß, was in diesen 30 Jahren an neuen Technologien auf den Markt kommt. Ein Payback von zehn Jahren wäre zu begründen, aber nicht 30 Jahre – dies mal ganz abgesehen von den Risiken.

Загрузка...