366. Einstein’s Superpowers – 368. A Premature Word on AI

366. Einstein’s Superpowers

Einstein benutzte keine Magie, als er die ART entdeckte. Einstein war ein ganz normaler Mensch. Ok, sein IQ lag halt im 99,9999ten Perzentil. Aber hey, wenn ich mich anstrenge kann ich bestimmt ähnliches erreichen!

Ich weiß nicht genau, was uns Yukdowsky mit diesem Post sagen will, aber obige Schlussfolgerung ist natürlich blanker Wahnsinn.

Da lobe ich mir den Kommentar von Mitchell Porter:

My own ruminations on genius have led me to suppose that one mistake which people of the very highest intelligence may make, is to underestimate their own exceptionality; for example, to adopt theories of human potential which are excessively optimistic regarding the capabilities of other people.

So fucking true.

367. Class Project

Wieder eine Kurzgeschichte.

368. A Premature Word on AI

Ein Post über KI. Nach Yudkowsky sind die meisten aller modernen AGI- (Artificial General Intelligence) Wissenschaftler nicht besonders intelligent. Er nennt keine Namen.

AGI ist kein besonders prestigeträchtiges Feld, da die frühen AI-Wissenschaftler spektakuläre Vorhersagen und Vesprechungen machten, die sie dann nicht einlösen konnten. Deshalb werden die klügsten Köpfe unserer Generation String-Theoretiker, Mathematiker oder theoretische Physiker.

Außerdem denkt der Großteil aller Wissenschaftler, dass AGI ein fast unmögliches Unterfangen darstellt. Und in der Tat, AGI ist eine gewaltige Herausforderung! Die meisten derzeitigen AGI-Leute scheinen dies nicht zu bemerken, vielleicht werden AGI-Konferenzen deshalb von vergleichsweise vielen Tölpeln bevölkert.

Aber AGI ist nicht unmöglich. Scott Aaronsen beispielsweise denkt, dass eine AGI auf menschlichem Intelligenz-Niveau erst in ca. 10.000 Jahren entwickelt wird!

Warum denkt Yudkowsky (und ich), dass die Wahrscheinlichkeit der Erschaffung einer superintelligenten KI in den nächsten 100 Jahren nicht allzu gering sein kann? Ich werde später noch näher darauf eingehen, wenn wir uns der AI-Foom-Debate von Yudkowsky und Hanson widmen, aber hier sind 2 enfache Gründe:

1. Da wir das Problem kaum verstehen, müssen wir unsere Konfidenzintervalle vergrößern. Wir müssen unsere Wahrscheinlichkeit über einen großen Zeitraum verteilen.  Man müsste bereits viele Informationen besitzen, wenn man behauptet, dass die Wahrscheinlichkeit der Erschaffung einer AGI für die nächsten 1000 Jahre äußerst gering ist.

2. Die natürliche Auslese – ein äußerst stupider und langsamer Optimisierungsprozess, dessen Kriterium nicht einmal die Erhöhung der Intelligenz ist! – hat etwa 6 Millionen Jahre gebraucht, um aus Schimpansen Menschen zu machen. Angenommen wir haben bereits Computer, die so klug sind, wie die dümmsten Insekten. Die Evolution hat ca. 3 Milliarden Jahre gebraucht um aus “Nichts” Insekten zu machen. Man kann zudem davon ausgehen, dass das Gesetz des abnehmenden Grenznutzens nicht gilt, da z.B. das menschliche Gehirn nicht exponentiell komplizierter oder größer ist als das von Schimpansen. Wenn die Menschheit also ca. 60 Jahre gebraucht hat (KI-Forschung wurde in den 50ern angefangen) um “Insekten-KIs” zu schaffen, dann kann es nach dieser Analogie nicht allzu lange dauern, bis wir KIs auf menschlichem oder höherem Niveau schaffen.

Natürlich sind in diesem Argument viele Annahmen versteckt, über die sich streiten lässt, aber wie gesagt, heben wir uns das für die AI-Foom-Debate auf.

 

 

 

 

Advertisements
This entry was posted in Lesswrong Zusammenfassungen. Bookmark the permalink.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s