Wann wird ein Computer den Turing-Test bestehen?

vom 07.01.2012, 16:11 Uhr

Alan Turing hat vor etwa 60 Jahren den sogenannten "Turing-Test" entworfen, mit dem er die Intelligenz von Computern einzuschätzen versuchte. Er meinte, dass es bis zum Jahr 2000 dauern würde, bis eine Maschine diesen Test in mindestens 70% aller Fälle bestehen würde. Der Test hat die Bedeutung, zu erfahren, wann ein Computer der Intelligenz eines Menschen zumindest ebenbürtig ist. Dass sich seine "Prophezeihung" noch nicht erfüllt hat, zeigt, dass die Komplexität von künstlicher Intelligenz sehr unterschätzt wird.

Nun zu dem Test selbst, für alle, die noch die davon gehört haben: Der Test läuft so ab, dass ein Mensch ohne Sicht- und Hörkontakt zwei unbekannten Gesprächspartnern irgendwelche zufälligen Fragen stellt. Bei den Gesprächspartnern handelt es sich dabei um einen Menschen und Maschine. Nun versuchen beide den Fragesteller davon überzeugen, dass sie menschlich wären. Wenn dieser den echten Menschen nach fünf Minuten nicht indentifizieren kann, dann hat der Computer den Turing-Test bestanden. Es haben zwar schon viele Maschinen diesen Test bestanden, allerdings nur bei einem geringen Prozentsatz der Versuche, der höchste bisher erreichte Prozentsatz war 25%. Ziel ist es, dass die Maschine den Turing-Test bei mind. 70% aller Testpersonen besteht. Wie lange meint ihr, wird das noch dauern?

Benutzeravatar

» mendacium. » Beiträge: 750 » Talkpoints: 17,61 » Auszeichnung für 500 Beiträge



Ich denke nicht, dass es an der Hardware liegt, dass dieser Test noch nicht bestanden wurde. Schließlich könnte man eine Menge Rechner vernetzen, wenn es nur auf die Rechenleistung ankommen würde. Ich denke, dass die Programmierung von künstlicher Intelligenz noch nicht weit genug voran geschritten ist. Alleine wie dämlich sich die KI oft in Computerspielen verhält, ist ein Anzeichen dafür, dass es hier noch sehr viel Potenzial nach oben gibt. Solange der Trend aber weiter so stark zu Onlinespielen geht, hält sich die kommerzielle Unterstützung der KI-Entwicklung natürlich in Grenzen. Nicht so, wie es in anderen Bereichen der Computertechnik war.

» LastGunman » Beiträge: 242 » Talkpoints: 4,06 » Auszeichnung für 100 Beiträge


Ich vermute ähnlich, dass die fehlende Rechenleistung gar nicht das Problem ist. Es gibt genügend Projekte, wo Privatnutzer einen Teil ihrer Rechenleistung zur Verfügung stellen können, um schwierige Aufgaben lösen zu können. Soweit ich weiß wird dieses Verfahren in der Krebsforschung zum Teil genutzt, um komplexe Algorithmen schneller knacken zu können.

Das Problem der künstlichen Intelligenz liegt damit eindeutig bei der operierenden Software. Einstein sprach ja schon davon, dass der Mensch nur 5-6% der Gehirnkapazität nutze, er hingegen 7%. :lol:

» default » Beiträge: 57 » Talkpoints: 22,39 »



Ähnliche Themen

Weitere interessante Themen

^