183.Fake Fake Utility Functions; 184. Fake Utility Functions

183.Fake Fake Utility Functions

Hilarious. Yudkowsky erklärt seinen Schreibprozess. Eigentlich wollte er am 1.November einen Post schreiben, in dem er erklärt, warum die Große Moralische Theorie, die alles auf eine axiologische Dimension reduzieren kann, meist schwachsinnig ist. Doch dann ist ihm aufgefallen, dass er dafür kurz die Evolutionstheorie erklären musste. Das wollte er in einem Post machen, doch daraus wurden dann ungefähr zehn, und um diese Post zu erklären, musste er andere Posts schreiben, die er aber wieder erklären musste, bis er am Ende über 30 Posts geschrieben hat, die für ein Verständnis von “Fake Utility Functions” notwendig sind.

Hier ist also dieser Post, der nicht einmal besonders wichtig ist, sondern einfach nur viel Vorwissen erforderte:

184. Fake Utility Functions

Wenn man ein superintelligente KI mit einer eindimensionalen Axiologie ausstattet, besteht die hohe Wahrscheinlichkeit ein Dystopia zu erschaffen. Menschliche Werte sind komplex. Selbst wenn man nur einen Wert vergisst, z.B. Langeweile, dann würden wir bis in alle Ewigkeit den schönsten Moment unseres Lebens wiederholen. Und sonst nichts anderes.

Advertisements
This entry was posted in Lesswrong Zusammenfassungen. Bookmark the permalink.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s