Longtermism
Longtermism (germanisiert auch: Longtermismus) ist eine, gelegentlich als Ideologie eingestufte[1][2] ethische Haltung, die Verbesserungen der fernen Zukunft als eine moralische Priorität betrachtet. Sie ist ein wichtiges Konzept des effektiven Altruismus.[3] Ideengeschichtlich unterscheidet sich Longtermism von anderen Schulen langfristigen Denkens (long-term thinking) wie Generationengerechtigkeit und Enkeltauglichkeit[4] durch noch deutlich längere Zeiträume, die es zu berücksichtigen gilt, wobei aber die genannten Strömungen als Vorbilder des Longtermism genannt werden.[5] So beschäftigt sich Longtermism über die nächsten Generationen hinaus insbesondere auch mit der Zukunft der Menschheit über die kommenden Jahrtausende oder gar Millionen von Jahren. Dies wird als die langfristige oder ferne Zukunft bezeichnet.
Kernideen
[Bearbeiten | Quelltext bearbeiten]Oft wird das Grundargument für Longtermism auf folgende drei Sätze heruntergebrochen: Menschen in der Zukunft sind moralisch genauso viel wert wie heute lebende Menschen. Es kann gut sein, dass in der Zukunft mehr Menschen leben werden, als in der Gegenwart und Vergangenheit zusammen (siehe Grafik). Und, wir können die Leben dieser Menschen positiv beeinflussen.[6][7] Diese Gedanken legen für Vertreter des Longtermism nahe, dass das Überleben und das Wohl der Menschheit moralisch sehr wichtig sind[8] und beispielsweise durch Gesetzgebung berücksichtigt werden solle.[9]
Ein zentrales Gedankenexperiment aus dem Jahr 1984 stammt von Derek Parfit. Er vergleicht drei Zustände: 1. Frieden, 2. einen Atomkrieg, der 99 % der Weltbevölkerung tötet und 3. einen, der 100 % der Menschheit tötet. Obwohl zwischen den zwei Kriegsszenarien nur 1 % Unterschied besteht, argumentiert Parfit, in einer Bewertung der Zustände stünde Szenario 2 näher an Szenario 1 als an Szenario 3. Der Grund ist, dass sich die Menschheit langfristig erholen kann, wenn 1 % überlebt. Szenario 3 dagegen bedeutet die Auslöschung der Menschheit, ein finaler Zustand.[10] Die Auslöschung ist für Longtermisten daher das worst case Szenario, weshalb die erste Priorität des Longtermism auf der Verringerung existenzieller Risiken liegt, also auf der Verhinderung von Ereignissen, die zur Auslöschung führen könnten.
Erweiterte Definition
[Bearbeiten | Quelltext bearbeiten]Der Philosoph William MacAskill definiert Longtermism in seinem Buch Was Wir der Zukunft Schulden als „die Sichtweise, nach der es eine moralische Priorität unserer Zeit ist, die langfristige Zukunft positiv zu beeinflussen.“[11] Diese Haltung grenzt er von starkem Longtermism ab, der „Sichtweise, nach der es die moralische Priorität unserer Zeit ist, die langfristige Zukunft positiv zu beeinflussen.“[12]
In seinem Buch The Precipice: Existencial Risk and the Future of Humanity beschreibt der Philosoph Toby Ord Longtermismus folgendermaßen: „Longtermism… beschäftigt sich insbesondere mit der Wirkung unserer Handlungen auf die langfristige Zukunft. Es nimmt die Tatsache ernst, dass unsere Generation nur eine Seite in einer viel längeren Geschichte ist, und dass unsere wichtigste Rolle womöglich darin besteht, zu entscheiden, wie wir diese Geschichte mitgestalten wollen. Am Schutz des Menschheitspotentials zu arbeiten ist eine Möglichkeit, eine bleibende, positive Wirkung in dieser Rolle zu erzielen und es mag noch weitere geben.“[13] Zudem merkt Ord an, dass „Longtermism von einer moralischen Reorientierung getrieben ist, hin zu der gewaltigen Zukunft, die existentielle Risiken zu beenden drohen, noch bevor sie begonnen hat.“[13] In seinem Buch stellt Ord auch einige Wahrscheinlichkeitsschätzungen für die Möglichkeit existenzieller Katastrophen an.
Implikationen für ethisches Handeln
[Bearbeiten | Quelltext bearbeiten]Forscher, die sich mit Longtermism beschäftigen, denken, dass wir die langfristige Zukunft auf zwei Arten verbessern können: „indem wir existenzielle Katastrophen verhindern und somit das Überleben der Zivilisation sicherstellen; oder indem wir die historische Laufbahn der Zivilisation so lenken, dass wir sie verbessern, solange sie besteht. Allgemein erhöht die Sicherung des Überlebens die Quantität zukünftigen Lebens; Verbesserungen der Laufbahn erhöhen die Qualität.“[11]
Existenzielle Risiken
[Bearbeiten | Quelltext bearbeiten]Ein existenzielles Risiko ist „ein Risiko, welches das langfristige Potenzial der Menschheit bedroht“[13], was Risiken beinhaltet, die die Menschheit auszulöschen drohen, sowie solche, die den permanenten Kollaps der Zivilisation bedeuten könnten. Beispiele für solche Risiken stellen Nuklearkriege und natürliche oder erzeugte Pandemien dar, sowie der Klimawandel, eine stabile totalitäre Weltregierung und aufkommende Technologien wie KI auf übermenschlichem Intelligenzniveau und Nanotechnologie.[13] Jedes dieser Risiken zu reduzieren kann die Zukunft langfristig durch die dadurch verursachte Mehrung (und/oder Verbesserung) zukünftiger Leben verbessern.[14][15]
Befürworter des Longtermismus haben angemerkt, dass die Menschheit derzeit weniger als 0,001 % des globalen BIP für longtermistische Zwecke ausgibt (also Handlungen, die explizit die langfristige Zukunft der Menschheit verbessern sollen).[16] Das ist weniger als 5 % der Geldmenge, die jährlich in den USA für Eiscreme ausgegeben wird, was Toby Ord zu der Aussage führt, die Menschheit solle „erstmal damit beginnen, mehr Geld für den Schutz der Zukunft auszugeben als für Eiscreme, um dann zu entscheiden, wie es von diesem Startpunkt weitergeht.“[13]
Änderungen der Laufbahn
[Bearbeiten | Quelltext bearbeiten]Existenzielle Risiken sind Extrembeispiele für das, was Forscher als „Änderung der Laufbahn“[14] bezeichnen. Abgesehen von der Risikominderung könnte es aber auch andere Wege geben, um den Werdegang der Zukunft positiv zu beeinflussen. Der Ökonom Tyler Cowen argumentiert, es sei eine moralische Priorität, das Wirtschaftswachstum zu beschleunigen, da zukünftige Generationen dadurch wohlhabender sein werden.[17] Abgesehen von dem unsicheren Einfluss von BIP-Wachstum auf das Wohlergehen der Bevölkerung,[18] sprechen dagegen aber die Risiken zu schneller Technologieentwicklung bei beschleunigtem Wachstum sowie die Tatsache, dass Wirtschaftswachstum in der Praxis begrenzt ist (MacAskill errechnet, dass die Weltwirtschaft bei einem kontintinuierlichen Wachstum von jährlich 2 % in 10.000 Jahren hundert Billionen Billionen Billionen Billionen Billionen Billionen Mal größer sein müsste, was absurd scheint).[11] Andere Forscher setzen auf die Verbesserung nationaler Institutionen und internationaler Politik, um positive Veränderungen der Laufbahn zu erzielen.[19]
Ein weiterer Weg, positive Laufbahnänderungen herbeizuführen, ist die Verbesserung gesellschaftlicher Werte.[20] MacAskill warnt, die Menschheit solle nicht erwarten, dass eine positive Entwicklung gesellschaftlicher Werte gegeben sei.[21] So denken etwa inzwischen die meisten Historiker, dass die Abschaffung der Sklaverei nicht moralisch oder ökonomisch unvermeidbar war.[22] Christopher Leslie Brown stellt in seinem Buch Moral Capital fest, die Sklaverei sei tatsächlich durch eine moralische Revolution inakzeptabel geworden, zu einer Zeit, in der sie anderweitig noch sehr profitabel war.[22] MacAskill stuft die Abschaffung als Wendepunkt der Menschheitsgeschichte ein, nach welchem die Rückkehr der Praktik unwahrscheinlich sei.[21] Daher könnte die positive Beeinflussung gesellschaftlicher Werte ein Weg sein, über den die heutigen Generationen die langfristige Zukunft positiv beeinflussen können.
Leben an einem entscheidenden Zeitpunkt
[Bearbeiten | Quelltext bearbeiten]Longtermisten argumentieren, dass wir uns an einem entscheidenden Moment der Menschheitsgeschichte befinden. Toby Ord stellt die Beobachtung auf, dass technologischer Fortschritt der Menschheit zum ersten Mal die Möglichkeit bietet, sich durch unweise Entscheidungen (z. B. Atomkrieg) zu vernichten, während der Fortschritt gesellschaftlicher Werte und Institutionen noch nicht weit genug ist, um sicherzustellen, dass dies nicht geschieht.[13] Zudem schrieb Derek Parfit, wir befänden uns „am Dreh- und Angelpunkt der Geschichte“[23] und William MacAskill erklärt, dass „das langfristige Schicksal der Welt teilweise davon abhängt, welche Entscheidungen wir zu unseren Lebzeiten treffen,“[11] da „die Gesellschaft sich noch in keinem Gleichgewichtszustand befindet [bezogen auf gesellschaftliche Werte], sodass wir imstande sind zu beeinflussen, welcher Gleichgewichtszustand sich letztlich einstellt.“[11]
Für den Großteil menschlicher Geschichte war unklar, wie die langfristige Zukunft zu beeinflussen sei.[24] Zwei relativ neue Entwicklungen haben das jedoch geändert. Technologische Entwicklungen, wie Atombomben, haben der Menschheit zum ersten Mal die Möglichkeit gegeben, sich selbst auszulöschen, was eine Wirkung auf die langfristige Zukunft hätte, indem die Existenz zukünftiger Generationen verhindert würde.[24] Zugleich haben Fortschritte in den Natur- und Gesellschaftswissenschaften der Menschheit vermeintlich die Möglichkeit gegeben, zumindest manche langfristigen Effekte heutiger Handlungen vorauszusagen.[24]
MacAskill merkt zudem an, dass unsere Zeit insofern ungewöhnlich ist, als „wir in einer Ära leben, die von außergewöhnlich viel Wandel gekennzeichnet ist“[11] – sowohl relativ zur Vergangenheit (als der ökonomische und technologische Fortschritt sehr langsam waren), als auch relativ zur Zukunft (da derzeitiges Wachstum nicht lange anhalten kann, bevor physische Limits erreicht sind).[11]
Theoretische Überlegungen
[Bearbeiten | Quelltext bearbeiten]Moraltheorie
[Bearbeiten | Quelltext bearbeiten]Longtermism wurde unter Berufung auf diverse moralische Theorien verteidigt.[1] Der Utilitarismus kann eine solche Theorie sein, da er darauf aus ist, das bestmögliche Ergebnis für die größtmögliche Anzahl an empfindungsfähigen Wesen zu erreichen und zukünftige Generationen vermutlich den Großteil aller Menschen darstellen, die jemals existieren werden.[25] Konsequentialistische Moraltheorien – für die Utilitarismus nur ein Beispiel ist – können generell mit dem Longtermism sympathisieren, denn egal was von der Theorie als moralisch wichtig angesehen wird, es wird wahrscheinlich in der Zukunft mehr davon geben, als in der Gegenwart.[26]
Allerdings können auch nicht-konsequentialistische Theorien longtermistische Überlegungen inspirieren. So stellt etwa Toby Ord Überlegungen über die Verantwortung an, die heutige Generationen gegenüber zukünftigen haben und macht diese an der Arbeit fest, die Generationen in der Vergangenheit für uns geleistet haben. Er schreibt:[13]
Die Natur von zeitlichen Abläufen macht es so viel einfacher, denen zu helfen, die nach uns kommen, gegenüber jenen, die vor uns kamen. Daher versteht man die Partnerschaft zwischen Generationen am besten als asymmetrisch, wobei Pflichten im Strom der Zeit vorwärts fließen und von jeder Generation “nach vorne” erfüllt werden. Wenn man es so betrachtet, sind unsere Pflichten bezüglich zukünftiger Generationen in der Arbeit verankert, die unsere Vorfahren für uns geleistet haben, als wir noch zukünftige Generationen waren.
Effekte auf die Zukunft evaluieren
[Bearbeiten | Quelltext bearbeiten]In seinem Buch Was wir der Zukunft schulden, erörtert William MacAskill, wie Einzelpersonen den Verlauf der Geschichte beeinflussen können. Er führt ein dreiteiliges Framework ein, das man nutzen kann, um über Effekte auf die Zukunft nachzudenken. Es besagt, dass der langfristige Wert eines Ergebnisses sich aus Signifikanz, Beständigkeit und Kontingenz zusammensetzt.[11] MacAskill erklärt, Signifikanz sei „der durchschnittliche zusätzliche Wert, der durch die Herbeiführung eines bestimmten Zustandes entsteht.“ Beständigkeit beschreibt, „wie lange der Zustand anhält, wenn er einmal herbeigeführt wurde“, und Kontingenz „bezieht sich auf das Ausmaß, zu dem die Herbeiführung des Zustandes durch die Handlung eines Individuums bedingt war.“[11] (Hätte das Individuum – oder die Gruppe – nicht gehandelt, wäre der Zustand trotzdem bald darauf herbeigeführt worden?) Des Weiteren erkennt MacAskill an, dass die ferne Zukunft zu aller Zeit mit moralischer und empirischer Unsicherheit verbunden ist. Er bietet vier Leitlinien, die Versuche, die langfristige Zukunft zu verbessern, leiten können. Sie lauten im Kurzen: Handlungen durchführen, die mit (relativer) Sicherheit gut sind (CO2-Emissionen senken oder an Pandemieprävention forschen etc.), Optionen mehren, mehr dazulernen und fahrlässige Schäden vermeiden.[11]
Populationsethik
[Bearbeiten | Quelltext bearbeiten]Populationsethik spielt eine wichtige Rolle im Longtermism. Viele seiner Befürworter akzeptieren den sogenannten totalen Standpunkt, nach dem es gut ist, weitere glückliche Menschen in die Welt zu bringen, wenn alle anderen Umstände gleich bleiben.[8] Eine solche Sichtweise stärkt das Argument für Longtermism: Der Umstand, dass es in der Zukunft eine gewaltige Anzahl Menschen geben könnte, bedeutet, dass die Verbesserung ihrer Umstände und besonders die Sicherung ihrer bloßen Existenz enormen Wert hätten.[27][8]
Andere empfindungsfähige Lebewesen
[Bearbeiten | Quelltext bearbeiten]Longtermism wird meist mit den Interessen von Menschen in der fernen Zukunft in Verbindung gebracht. Allerdings gestehen manche Befürworter des Longtermism auch nicht-menschlichen Lebewesen hohen moralischen Wert zu.[28] Aus dieser Perspektive heraus kann es also extrem wichtig sein, für das Wohlergehen von Tieren einzustehen, da positive Normen bezüglich tierischen Leids für eine sehr lange Zeit bestehen könnten, sollten sie von großen Teilen der Gesellschaft akzeptiert werden.[20]
Diskontsatz
[Bearbeiten | Quelltext bearbeiten]Longtermism impliziert, dass wir eine recht geringe soziale Diskontrate nutzen sollten, wenn wir den moralischen Wert der fernen Zukunft betrachten. Im Ramsey Standardmodell der Ökonomik ist die soziale Diskontrate gegeben durch:
wobei die Elastizität des marginalen Grenznutzens des Konsums darstellt, die Wachstumsrate des Konsums und eine Größe, welche die „Katastrophenrate“ (Diskontierung des Risikos, dass der zukünftige Nutzen nicht eintritt) und einer puren Zeitpräferenz kombiniert (wobei zukünftiger Nutzen intrinsisch niedriger gewertet wird als gegenwärtiger Nutzen). Ord argumentiert, eine Zeitpräferenz ungleich Null sei illegitim, da zukünftige Generationen moralisch ebenso viel wert seien wie gegenwärtige. Des Weiteren gelte nur für monetären Nutzen, nicht für moralischen, da das Konzept rein in der ökonomischen Theorie abnehmenden Grenznutzens verankert ist. Menschliches Wohlbefinden habe, anders als Geld, keinen abnehmenden Grenznutzen. Daher sei der einzige verbleibende Faktor, der Einfluss auf die Diskontrate haben sollte, die Katastrophenrate, also die Hintergrundgefahr existenzieller Risiken.[13]
Im Gegensatz dazu argumentiert Andreas Morgensen, eine positive Rate purer Zeitpräferenz sei durch Verwandtschaft gerechtfertigt. Soll heißen, common-sense Moralität erlaubt es uns, Partei für unsere nahen Verwandten zu ergreifen, sodass wir „gerechtfertigterweise das Wohlergehen weiter entfernter Generationen niedriger einstufen dürfen als das derjenigen, die direkt nach uns kommen.“[29] Diese Sichtweise wird Temporalismus genannt und stützt sich auf die Prämisse, dass „zeitliche Nähe […] bestimmte moralischen Pflichten stärkt, inklusive die Pflicht zu retten.“[30]
Kritik
[Bearbeiten | Quelltext bearbeiten]Unvorhersehbarkeit
[Bearbeiten | Quelltext bearbeiten]Ein Kritikpunkt besteht darin, dass Longtermism auf die Vorhersage der Wirkung unserer Handlungen auf die langfristige Zukunft angewiesen ist. Das ist im Bestfall sehr schwer und im schlechtesten Fall unmöglich.[31] Zur Antwort auf diese Herausforderung haben Longtermisten versucht, Ereignisse zu identifizieren, die zu einem Werte lock-in führen würden – Ereignisse wie die Ausrottung der Menschheit, die wir in der nahen Zukunft bereits beeinflussen können, die aber auch in der fernen Zukunft langanhaltende, voraussehbare Effekte haben werden.[32]
Niedrigere Priorisierung aktueller Probleme
[Bearbeiten | Quelltext bearbeiten]Eine weitere Sorge ist, dass Longtermism dazu führen könnte, dass drängende Probleme in den Hintergrund gerückt werden. Einige Kritiker haben beispielsweise argumentiert, die Betrachtung der menschlichen Zukunft in den nächsten 10.000 oder 10 Millionen Jahren könne dazu führen, dass kurzfristigere Auswirkungen wie die des Klimawandels heruntergespielt werden.[33] Sie befürchten auch, dass diese langfristig orientierte Weltsicht die Umweltkrise verschlimmern und Gräueltaten zum Zwecke des Erreichens astronomisch hoher Werte in der Zukunft rechtfertigen könnte, indem sie als Endziel der menschlichen Entwicklung technologische Reife oder die Unterwerfung der Natur und die Maximierung der wirtschaftlichen Produktivität festlegt. Der Anthropologe Vincent Ialenti argumentiert, ein „strukturierterer, facettenreicherer, mehrdimensionaler Longtermism“ in der Gesellschaft sei notwendig, um dies zu verhindern. Ein Longtermism, der „den Informationsinseln und disziplineigenen Echokammern trotzt.“[34]
Befürworter des Longtermism entgegnen, dass Maßnahmen, die für die langfristige Zukunft gut sind, oft auch für die Gegenwart gut seien.[8] Ein Beispiel dafür sei die Pandemievorsorge. Die Vorbereitung auf eine worst-case Pandemie – die das Überleben der Menschheit bedrohen könnte – kann auch dazu beitragen, die öffentliche Gesundheit in der Gegenwart zu verbessern. Die Finanzierung von Forschung und Innovation in Bereichen wie etwa Antivirenmittel, Impfstoffe und persönliche Schutzausrüstung sowie die Lobbyarbeit bei Regierungen, die sich auf Pandemien vorbereiten, könnten dazu beitragen, auch kleinere Gesundheitsbedrohungen für die Menschheit zu verhindern.[35]
Zu kleine Wahrscheinlichkeiten für den großen Payoff
[Bearbeiten | Quelltext bearbeiten]Ein weiterer Einwand gegen den Longtermism ist, dass er darauf setzt Wetten mit geringer Wahrscheinlichkeit auf extrem hohe Payoffs, anstatt sicherere Wetten auf geringere Payoffs zu schließen (vorausgesetzt, der Erwartungswert ist höher).[36][37] Aus Sicht des Longtermism scheint es, dass die Verringerung eines existenziellen Risikos um kleine Prozentbeträge selbst dann einen extrem hohen Erwartungswert hätte, wenn die Wahrscheinlichkeit des existenziellen Risikos sehr gering ist, einfach weil die langfristige Zukunft einen so großen Wert hat. Eine Illustration für dieses Problem ist „Pascal’s Mugging“, ein entscheidungstheoretisches Gedankenexperiment, bei dem es darum geht, einen Erwartungswert-Maximierer auszunutzen, da dieser bereit ist, Wetten mit sehr geringer Wahrscheinlichkeit auf sehr große Gewinne zu akzeptieren.[38]
Befürworter des Longtermism haben eine Reihe von Antworten auf diese Kritik gegeben, die vom „in den sauren Apfel beißen“ bis hin zu dem Argument reichen, dass der Longtermism nicht mit winzigen Risikowahrscheinlichkeiten arbeiten müsse, da die Wahrscheinlichkeiten existenzieller Risiken innerhalb des normalen Risikobereichs lägen, gegen den sich Menschen abzusichern versuchen – z. B. das Anlegen eines Sicherheitsgurts für den Fall eines Autounfalls.[37]
Prominente Befürworter & Community
[Bearbeiten | Quelltext bearbeiten]Zentrale Vordenker des Longtermism sind unter anderem Nick Bostrom, Toby Ord und William MacAskill.
Relevante Einrichtungen und Think Tanks sind neben den bestimmten Non-Profit-Organisationen und Plattformen des Effektiven Altruismus das Future of Humanity Institute[39] der Oxford University, das Global Priorities Institute, das Future of Life Institute[40], das Centre for the Study of Existential Risk[41] der Universität Cambridge, 80.000 Hours[42], Open Philanthropy[43], die Forethought Foundation[44] und Longview Philanthropy[45].
Zu prominenten Anhängern werden Elon Musk, Peter Thiel, Vitalik Buterin,[46] Jaan Tallinn, Geoffrey Hinton, Max Roser[47][48] und Rutger Bregman gezählt.[49][50][51][52]
Der 2021 veröffentlichte UN-Report Our Common Agenda[53] soll zentrale Begrifflichkeiten und Ansätze des Longtermism übernommen haben.[54][55]
Das Chronicle of Philanthropy wählte Longtermism als eines der Philanthropy Buzzwords 2023.[56]
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ a b Alice Crary: The toxic ideology of longtermism. In: Radical Philosophy. Nr. 214, 2023, ISSN 0300-211X, S. 49–57 (radicalphilosophy.com [abgerufen am 30. Juni 2023]).
- ↑ Benedikt Namdar: Émile Torres über Longtermismus: "Longtermism ist bei vielen mächtigen Personen beliebt." In: Moment. 26. Juni 2023, abgerufen am 28. Juni 2023.
- ↑ Fin Moorhouse: Introduction to Longtermism. In: Effective Altruism. 27. Januar 2021, abgerufen am 13. November 2021 (englisch).
- ↑ Langfristiges und kurzfristiges Denken und Handeln. In: Jean-Marcel Kobi (Hrsg.): Die Balance im Management. Gabler, Wiesbaden 2008, ISBN 978-3-8349-0583-3, S. 25–29, doi:10.1007/978-3-8349-9601-5_3: „Langfristiges Denken ist nachhaltiges Denken, das Sicherheit und Integrität betont. Nachhaltige Entwicklung befriedigt die Bedürfnisse der Gegenwart, ohne die Möglichkeiten zukünftiger Generationen einzuschränken. Nachhaltigkeit darf allerdings nicht einseitig unter ökologischen Gesichtspunkten gesehen werden. Heute ist vor allem die soziale Dimension in der Nachhaltigkeitsdiskussion stärker zu betonen.“
- ↑ Resources. In: Longtermism.com. Abgerufen am 13. Mai 2023 (englisch): „"Long-term thinking means imagining projects and processes which could last thousands of years — thinking at the timescale of civilisation. It's a close relative, and a major inspiration, of longtermism. The Good Ancestor by Roman Krznaric Clock of the Long Now by Stewart Brand The Long-termist's Field Guide by Richard Fisher"“
- ↑ Sigal Samuel: Would you donate to a charity that won’t pay out for centuries? In: Vox. 3. November 2021, abgerufen am 13. November 2021 (englisch).
- ↑ Jonathan Erhardt, Dominic Roser: Effektiver Altruismus und Armut. In: Handbuch Philosophie und Armut. J.B. Metzler, Stuttgart 2021, ISBN 978-3-476-05739-6, S. 221–228, doi:10.1007/978-3-476-05740-2_30.
- ↑ a b c d Hilary Greaves, William MacAskill: The case for strong longtermism. In: Global Priorities Institute Working Paper. 5. Jahrgang, 2021 (englisch, globalprioritiesinstitute.org ( des vom 9. Juli 2022 im Internet Archive)).
- ↑ Eric Martínez, Christoph Winter: Is Legal Longtermism Common Sense? In: Verfassungsblog. 9. August 2022, doi:10.17176/20220809-181618-0 (verfassungsblog.de [abgerufen am 13. Mai 2023]).
- ↑ Derek Parfit: Reasons and Persons. Oxford University Press, New York 1984, ISBN 978-0-19-824908-5.
- ↑ a b c d e f g h i j William MacAskill: What We Owe the Future. Basic Books, New York 2022, ISBN 978-1-5416-1862-6.
- ↑ William MacAskill: Longtermism. In: Effective Altruism Forum. 25. Juli 2019, abgerufen am 18. Dezember 2023 (englisch).
- ↑ a b c d e f g h Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing, London 2020, ISBN 978-1-5266-0021-9, S. 52–53.
- ↑ a b Nick Beckstead: On the Overwhelming Importance of Shaping the Far Future. The state University of New Jersey, 2013.
- ↑ Nick Bostrom: Existential Risk Prevention as Global Priority. In: Global Policy. Band 4, Nr. 1, Februar 2013, ISSN 1758-5880, S. 15–31, doi:10.1111/1758-5899.12002 (wiley.com [abgerufen am 18. Dezember 2023]).
- ↑ Frequently Asked Questions. Abgerufen am 18. Dezember 2023 (englisch).
- ↑ Tyler Cowen: Stubborn Attachments: A Vision for a Society of Free, Prosperous, and Responsible Individuals. Stripe Press, 2018, ISBN 978-1-73226-513-4.
- ↑ Michael Plant: Will faster economic growth make us happier? The relevance of the Easterlin Paradox to Progress Studies. Abgerufen am 19. Dezember 2023 (amerikanisches Englisch).
- ↑ Tyler John, William MacAskill: Longtermist institutional reform. In: Natalie Cargill, Tyler John (Hrsg.): The Long View. ISBN 978-0-9957281-8-9.
- ↑ a b Jacy Reese: Why I prioritize moral circle expansion over reducing extinction risk through artificial intelligence alignment. In: Effective Altruism Forum. 20. Februar 2018, abgerufen am 19. Dezember 2023 (englisch).
- ↑ a b William MacAskill: Will MacAskill on balancing frugality with ambition, whether you need longtermism, and mental health under pressure. In: 80,000 Hours. 23. Mai 2022, abgerufen am 19. Dezember 2023 (englisch).
- ↑ a b Christopher Brown: Moral Capital: Foundations of British Abolitionism. UNC Press, 2006, ISBN 978-0-8078-5698-7.
- ↑ Derek Parfit: On What Matters. Volume 2. Oxford University Press, Oxford 2011, S. 611.
- ↑ a b c Fin Moorhouse: Longtermism - Frequently Asked Questions: Isn't much of longtermism obvious? Why are people only just realising all this? In: Longtermism.com. 14. Juli 2022, abgerufen am 19. Dezember 2023 (englisch).
- ↑ William MacAskill, Darius Meisner: Utilitarianism and Practical Ethics - Longtermism: Expanding the Moral Circle Across Time. In: An Introduction to Utilitarianism. 2022, abgerufen am 20. Dezember 2023.
- ↑ Benjamin Todd: Longtermism: the moral significance of future generations. In: 80,000 Hours. 2017, abgerufen am 20. Dezember 2023 (englisch).
- ↑ Jack Malde: Possible misconceptions about (strong) longtermism: "Longtermists must be total utilitarians". In: Effective Altruism Forum. 9. März 2021, abgerufen am 20. Dezember 2023 (englisch).
- ↑ Tobias Baumann: Longtermism and animal advocacy. Center for Reducing Suffering, 2020, abgerufen am 22. Dezember 2023 (englisch).
- ↑ Andreas Morgensen: The only ethical argument for positive delta? Global Priorities Institute, Oktober 2019, abgerufen am 22. Dezember 2023 (englisch).
- ↑ Harry Lloyd: Time discounting, consistency and special obligations: a defence of Robust Temporalism. Global Priorities Institute, 2021, abgerufen am 22. Dezember 2023 (englisch).
- ↑ Christian Tarsney: The epistemic challenge to longtermism. In: GPI Working Paper. No. 10-2019. 2019, abgerufen am 22. Dezember 2023 (englisch).
- ↑ William MacAskill, Jeff McMahan, Tim Campbell, Goodrich James: Are we living at the hinge of history? In: Ethics and Existence: The Legacy of Derek Parfit. Oxford University Press, 2021, abgerufen am 22. Dezember 2023 (englisch).
- ↑ Phil Torres, Sam Dresser: Why longtermism is the world's most dangerous secular credo. Aeon, 19. Oktober 2021, abgerufen am 23. Dezember 2023 (englisch).
- ↑ Deep Time Reckoning. Abgerufen am 22. Dezember 2023 (amerikanisches Englisch).
- ↑ Gregory Lewis: Risks of catastrophic pandemics. 80,000 Hours, 2020, abgerufen am 23. Dezember 2023 (englisch).
- ↑ Hayden Wilkinson: In defense of fanaticism. Global Priorities Institute, 2020, abgerufen am 23. Dezember 2023 (englisch).
- ↑ a b Daniel Kokotajlo: Tiny Probabilities of Vast Utilities: Concluding Arguments. In: Effective Altruism Forum. 2018, abgerufen am 23. Dezember 2023 (englisch).
- ↑ Nick Bostrom: Pascal's Mugging. 2009, abgerufen am 23. Dezember 2023 (englisch).
- ↑ About us: Future of Humanity Institute. The Future of Humanity institute, abgerufen am 18. Dezember 2023.
- ↑ Team. Future of Life Institute, abgerufen am 18. Dezember 2023 (englisch).
- ↑ Our Mission. Abgerufen am 18. Dezember 2023 (englisch).
- ↑ About us: what do we do, and how can we help? 80,000 Hours, abgerufen am 18. Dezember 2023 (englisch).
- ↑ Global Catastrophic Risks. Open Philanthropy, 2. März 2016, abgerufen am 18. Dezember 2023 (englisch).
- ↑ About Us - Forethought Foundation. Forethought Foundation for Global Priorities Research, 2022, abgerufen am 18. Dezember 2023 (englisch).
- ↑ Dylan Matthews: How effective altruism went from a niche to a billion-dollar force. Vox, 8. August 2022, abgerufen am 18. Dezember 2023 (englisch).
- ↑ Robert Wiblin, Keiran Harris: Vitalik Buterin on better ways to fund public goods, the blockchain’s failures so far, & how it could yet change the world. In: 80,000 Hours. 3. September 2019, abgerufen am 12. Juli 2023 (amerikanisches Englisch).
- ↑ Max Roser: Longtermism: The future is vast – what does this mean for our own life? In: Our World in Data. 15. März 2022, abgerufen am 17. Mai 2023 (englisch).
- ↑ Max Roser, EdMathieu, Charlie Giattino: A new Our World in Data article on longtermism. 17. März 2022 (effectivealtruism.org [abgerufen am 17. Mai 2023]).
- ↑ Lia Nordmann: Longtermism: Eine neue Theorie für die Zukunft? | Philosophie Magazin. In: Philosophie Magazin. 2. September 2021, abgerufen am 13. Mai 2023.
- ↑ Esther Menhard: Longtermismus: „Eine merkwürdige und sonderbare Ideologie“. In: Netzpolitik.org. 30. April 2023, abgerufen am 9. Mai 2023 (deutsch).
- ↑ Wolfgang Stieler: Welche Ideologie hinter Geoffrey Hintons Warnungen steckt. In: heise online. 5. Mai 2023, abgerufen am 11. Mai 2023.
- ↑ Hans de Zwart: Beware of ‘Effective Altruism’ and ‘Longtermism’. In: Racism and Technology Center. 29. Oktober 2022, abgerufen am 13. Mai 2023 (amerikanisches Englisch, niederländisch).
- ↑ Our Common Agenda. In: United Nations. September 2021, abgerufen am 13. Mai 2023 (englisch).
- ↑ Anja Kaspersen, Wendell Wallach: Long-termism: An Ethical Trojan Horse. In: Carnegie Council for Ethics in International Affairs. 29. September 2022, abgerufen am 13. Mai 2023 (amerikanisches Englisch): „The well-intentioned philosophy of long-termism, then, risks becoming a Trojan horse for the vested interests of a select few. Therefore we were surprised to see this philosophical position run like a red thread through "Our Common Agenda," the new and far-reaching manifesto of United Nations Secretary-General António Guterres.“
- ↑ Fin Moorhouse: Summary of 'Our Common Agenda' UN Report. In: Fin Moorhouse. September 2021, abgerufen am 13. Mai 2023 (englisch): „Toby Ord, one of the ‘outside experts’ who contributed advice when the report was being formed, remarked on Twitter: “I have to say that I never imagined seeing so many proposals for empowering future generations and providing international governance of existential risk in a single UN report”. Indeed, the report is encouraging and somewhat unexpected news for people interested in effective altruism and especially longtermism.“
- ↑ Philanthropy Buzzwords 2023: A Window Into Uncertain and Unstable Times. In: Chronicle of Philanthropy. 15. Dezember 2022, abgerufen am 13. Mai 2023 (englisch).