Bist du jetzt auch kaum intelligent, weil du deine Antwort auf Basis von impliziten Wahrscheinlichkeitsberechnungen gemacht hast?
Pareidolie ist auch ein schönes Beispiel, bei dem wir Annahmen aufgrund von Ähnlichkeiten und Wahrscheinlichkeiten treffen. Sind wir deswegen nicht intelligent?
Was ist Intelligenz überhaupt?
Wenn ChatGPT deine Hausaufgaben besser lösen kann als du, wer ist dann intelligenter?
Etc…
Letztenendes basieren die meisten populären KI-Anwendungen auf künstlichen neuronalen Netzen, die ein vereinfachtes Modell von biologischen Neuronen darstellen. Menschliche Gehirne sind so gesehen auch nichts weiter als Wahrscheinlichkeitsmaschinen.
Klar, es sind vereinfachte Modelle. Diverse Aspekte, die es im biologischen Vorbild gibt, fehlen noch. Aber das, was man bisher schon dadurch erreichen kann ist ziemlich krass und weist bei genauerer Betrachtung immer wieder Ähnlichkeiten zur Arbeitsweise (menschlicher) biologischer Gehirne auf. Siehe zum Beispiel der Gabor Filter, von dem viele Neurowissenschaftler, der Meinung sind, dass wir diesen als Teil unseres visuellen Cortex haben (was aber weiterhin untersucht wird). Dieser Filter wurde von einigen Convolutional Neural Networks eigenständig erlernt, was die Überlappung mit biologischen Gehirnen wieder faszinierend aufzeigt.
Die Sache ist, dass ChatGPT häufig falsch ist mit der Angabe von Informationen, denn sie “denkt” nicht sondern geht nach “angelernte” statistische Modelle. Beispiel ChatGPT versteht Konzepte nicht und kann diese schlecht erklären. Da hab ich ein bisschen rumexperimentiert und da kam es häufig an seine Grenzen. Es ist gar nicht einfach zu erklären warum ChatGPT im engeren Sinne keine KI ist.
Das erkennen von mustern und darauf basierende vorhersagen zu machen würde ich als intelligent bezeichnen.
Unser Gehirn macht nichts anderes, nur deutlich mehr und effizienter.
KI ist nur ein Marketinggimmick und nicht tatsächlich KI. Was die Normalos KI nennen ist Scheiße.
Da fehlt vor allem noch ein wenig Blockkette drauf, sonst wird es eh nichts.
im gegensatz zur blockkette löst maschinelles lernen tatsächliche probleme.
es ist aber eben nicht die eierlegende wollmilchsau, die jetzt all unsere probleme lösen wird.
Was ist deines Wissens nach denn “tatsächlich KI”?
KI ist KI. Wie schlau das I ist schwankt nur sehr.
Ein statistisches Modell die Antworten aufgrund Wahrscheinlichkeitsberechnung gibt kann kaum als Intelligenz bezeichnet werden.
Vervollständige den folgenden Satz:
Schatz, wann kommst du nach ___?
Bist du jetzt auch kaum intelligent, weil du deine Antwort auf Basis von impliziten Wahrscheinlichkeitsberechnungen gemacht hast?
Pareidolie ist auch ein schönes Beispiel, bei dem wir Annahmen aufgrund von Ähnlichkeiten und Wahrscheinlichkeiten treffen. Sind wir deswegen nicht intelligent?
Was ist Intelligenz überhaupt?
Wenn ChatGPT deine Hausaufgaben besser lösen kann als du, wer ist dann intelligenter?
Etc…
Letztenendes basieren die meisten populären KI-Anwendungen auf künstlichen neuronalen Netzen, die ein vereinfachtes Modell von biologischen Neuronen darstellen. Menschliche Gehirne sind so gesehen auch nichts weiter als Wahrscheinlichkeitsmaschinen.
Klar, es sind vereinfachte Modelle. Diverse Aspekte, die es im biologischen Vorbild gibt, fehlen noch. Aber das, was man bisher schon dadurch erreichen kann ist ziemlich krass und weist bei genauerer Betrachtung immer wieder Ähnlichkeiten zur Arbeitsweise (menschlicher) biologischer Gehirne auf. Siehe zum Beispiel der Gabor Filter, von dem viele Neurowissenschaftler, der Meinung sind, dass wir diesen als Teil unseres visuellen Cortex haben (was aber weiterhin untersucht wird). Dieser Filter wurde von einigen Convolutional Neural Networks eigenständig erlernt, was die Überlappung mit biologischen Gehirnen wieder faszinierend aufzeigt.
Die Sache ist, dass ChatGPT häufig falsch ist mit der Angabe von Informationen, denn sie “denkt” nicht sondern geht nach “angelernte” statistische Modelle. Beispiel ChatGPT versteht Konzepte nicht und kann diese schlecht erklären. Da hab ich ein bisschen rumexperimentiert und da kam es häufig an seine Grenzen. Es ist gar nicht einfach zu erklären warum ChatGPT im engeren Sinne keine KI ist.
Das erkennen von mustern und darauf basierende vorhersagen zu machen würde ich als intelligent bezeichnen. Unser Gehirn macht nichts anderes, nur deutlich mehr und effizienter.