• fuzzy_feeling
        link
        fedilink
        613 days ago

        im gegensatz zur blockkette löst maschinelles lernen tatsächliche probleme.

        • spracherkennung
        • krebserkennung
        • texte zusammen fassen
        • bildgenerierung
        • etc

        es ist aber eben nicht die eierlegende wollmilchsau, die jetzt all unsere probleme lösen wird.

        • @Zacryon@feddit.org
          link
          fedilink
          212 days ago

          Vervollständige den folgenden Satz:

          Schatz, wann kommst du nach ___?

          Bist du jetzt auch kaum intelligent, weil du deine Antwort auf Basis von impliziten Wahrscheinlichkeitsberechnungen gemacht hast?

          Pareidolie ist auch ein schönes Beispiel, bei dem wir Annahmen aufgrund von Ähnlichkeiten und Wahrscheinlichkeiten treffen. Sind wir deswegen nicht intelligent?

          Was ist Intelligenz überhaupt?

          Wenn ChatGPT deine Hausaufgaben besser lösen kann als du, wer ist dann intelligenter?

          Etc…

          Letztenendes basieren die meisten populären KI-Anwendungen auf künstlichen neuronalen Netzen, die ein vereinfachtes Modell von biologischen Neuronen darstellen. Menschliche Gehirne sind so gesehen auch nichts weiter als Wahrscheinlichkeitsmaschinen.
          Klar, es sind vereinfachte Modelle. Diverse Aspekte, die es im biologischen Vorbild gibt, fehlen noch. Aber das, was man bisher schon dadurch erreichen kann ist ziemlich krass und weist bei genauerer Betrachtung immer wieder Ähnlichkeiten zur Arbeitsweise (menschlicher) biologischer Gehirne auf. Siehe zum Beispiel der Gabor Filter, von dem viele Neurowissenschaftler, der Meinung sind, dass wir diesen als Teil unseres visuellen Cortex haben (was aber weiterhin untersucht wird). Dieser Filter wurde von einigen Convolutional Neural Networks eigenständig erlernt, was die Überlappung mit biologischen Gehirnen wieder faszinierend aufzeigt.

          • @TanteRegenbogen@feddit.org
            link
            fedilink
            3
            edit-2
            12 days ago

            Die Sache ist, dass ChatGPT häufig falsch ist mit der Angabe von Informationen, denn sie “denkt” nicht sondern geht nach “angelernte” statistische Modelle. Beispiel ChatGPT versteht Konzepte nicht und kann diese schlecht erklären. Da hab ich ein bisschen rumexperimentiert und da kam es häufig an seine Grenzen. Es ist gar nicht einfach zu erklären warum ChatGPT im engeren Sinne keine KI ist.

        • @Elchi@feddit.org
          link
          fedilink
          -212 days ago

          Das erkennen von mustern und darauf basierende vorhersagen zu machen würde ich als intelligent bezeichnen. Unser Gehirn macht nichts anderes, nur deutlich mehr und effizienter.