• fuzzy_feeling
        link
        fedilink
        613 days ago

        im gegensatz zur blockkette löst maschinelles lernen tatsächliche probleme.

        • spracherkennung
        • krebserkennung
        • texte zusammen fassen
        • bildgenerierung
        • etc

        es ist aber eben nicht die eierlegende wollmilchsau, die jetzt all unsere probleme lösen wird.

        • @Zacryon@feddit.org
          link
          fedilink
          212 days ago

          Vervollständige den folgenden Satz:

          Schatz, wann kommst du nach ___?

          Bist du jetzt auch kaum intelligent, weil du deine Antwort auf Basis von impliziten Wahrscheinlichkeitsberechnungen gemacht hast?

          Pareidolie ist auch ein schönes Beispiel, bei dem wir Annahmen aufgrund von Ähnlichkeiten und Wahrscheinlichkeiten treffen. Sind wir deswegen nicht intelligent?

          Was ist Intelligenz überhaupt?

          Wenn ChatGPT deine Hausaufgaben besser lösen kann als du, wer ist dann intelligenter?

          Etc…

          Letztenendes basieren die meisten populären KI-Anwendungen auf künstlichen neuronalen Netzen, die ein vereinfachtes Modell von biologischen Neuronen darstellen. Menschliche Gehirne sind so gesehen auch nichts weiter als Wahrscheinlichkeitsmaschinen.
          Klar, es sind vereinfachte Modelle. Diverse Aspekte, die es im biologischen Vorbild gibt, fehlen noch. Aber das, was man bisher schon dadurch erreichen kann ist ziemlich krass und weist bei genauerer Betrachtung immer wieder Ähnlichkeiten zur Arbeitsweise (menschlicher) biologischer Gehirne auf. Siehe zum Beispiel der Gabor Filter, von dem viele Neurowissenschaftler, der Meinung sind, dass wir diesen als Teil unseres visuellen Cortex haben (was aber weiterhin untersucht wird). Dieser Filter wurde von einigen Convolutional Neural Networks eigenständig erlernt, was die Überlappung mit biologischen Gehirnen wieder faszinierend aufzeigt.

          • @TanteRegenbogen@feddit.org
            link
            fedilink
            3
            edit-2
            12 days ago

            Die Sache ist, dass ChatGPT häufig falsch ist mit der Angabe von Informationen, denn sie “denkt” nicht sondern geht nach “angelernte” statistische Modelle. Beispiel ChatGPT versteht Konzepte nicht und kann diese schlecht erklären. Da hab ich ein bisschen rumexperimentiert und da kam es häufig an seine Grenzen. Es ist gar nicht einfach zu erklären warum ChatGPT im engeren Sinne keine KI ist.

        • @Elchi@feddit.org
          link
          fedilink
          -212 days ago

          Das erkennen von mustern und darauf basierende vorhersagen zu machen würde ich als intelligent bezeichnen. Unser Gehirn macht nichts anderes, nur deutlich mehr und effizienter.

  • @vapeloki@lemmy.world
    link
    fedilink
    1813 days ago

    KI kann sehr hilfreich sein. Vorausgesetzt man setzt sie richtig ein. Eine KI auf medizinische Daten zu trainieren z.B…

    Aber: das was wir als KI vorgesetzt bekommen ist tatsächlich nur ein Klimawandelbeschleuniger.

    • @Saleh@feddit.org
      link
      fedilink
      1313 days ago

      Ich bin ein Freund davon, nicht von KI sondern maschinellem Lernen (ML) zu sprechen. Gerade wenn man effizientere Ansätze stat neuronalen Netzen wählt, wird deutlich, dass es sehr komplexe Statistik ist, die wir nur dank hoher Rechenleistung bewältigen können.

      Dafür ist es sehr gut geeignet, vorausgesetzt die Daten haben auch eine gute Qualität und es wird von Leuten eingesetzt, die auch Fachwissen haben und das Ergebnis nachvollziehen können.

    • albert180
      link
      fedilink
      Deutsch
      812 days ago

      Gerade im medizinischen Bereich gibt’s besonders viel Bullshitanwendungen von KI.

      Ich weiß nicht mehr in welchem Journal es war, aber eins hatte sich mal die ganzen tollen Covid-Röntgen-KIs angeschaut, und der Großteil war kompletter Müll, der nicht zuverlässig vorhersagen konnte ob jemand COVID hat oder nicht, sondern stattdessen “erkannt” hat, ob es eine Stehend oder Liegendaufnahme ist. (Stehendaufnahmen haben eine bessere Qualität, Liegendaufnahmen macht man dagegen vor allem auf Intensivstation, wo die Patienten zu krank für sowas sind).

      Und wenn ich sehe, wie oft Kollegen Perplexity AI, ChatGPT oder andere LLMs nehmen um “in Leitlinien zu recherchieren”, oder sich was erklären zu lassen, und dabei kommt entweder kompletter Mist raus, oder eben immer noch weit genug von der Wahrheit entfernt um Schaden anzurichten, wird mir schlecht.

      Noch cringiger ist es eigentlich nur noch, wenn Oberärzte eine KI fragen “Warum war Medikament XY ein Flop”, und dann die Antwort ernsthaft ohne weitere Recherche in offizielle Fortbildungen einbauen.

      Zuguterletzt ist die Dokumentation im medizinischen Sektor keine gute Datengrundlage. Vieles wird dokumentiert dass die Krankenversicherung nicht rumzickt, oder Textbausteine kopiert aber nicht wirklich angepasst. Vertrauen würde ich dem ganzen auf jeden Fall eher wenig

      • @Zacryon@feddit.org
        link
        fedilink
        312 days ago

        Ergebnisse von LLMs unkritisch einfach hinzunehmen ist natürlich höchst unverantwortlich. Besonders im medizinischen Einsatz müssen hohe Qualitätsanforderungen an die Software erfüllt werden.

        Nichtsdestotrotz haben Methoden aus dem Feld der KI durchaus wertvolle Anwendungen mit sich gebracht. Wie zum Beispiel können z.B. CNNs (Convolutional Neural Networks) bei der automatisierten Ersteinordnung von unzähligen Diagnosebildern helfen. Sie haben auch geholfen unser Verständnis bei der Krebsdiagnose zu verbessern, weil sie beispielsweise das Zellumfeld mit betrachtet haben, was Menschen bisweilen nicht getan haben.
        Die Entwicklung neuer Medikamente wird dank KI auch enorm beschleunigt. Siehe z.B. AlphaFold.

        Und wenn ich bedenke, wie schlampig die meisten Ärzte meiner Erfahrung nach arbeiten, bin ich fast schon versucht mein Vertrauen viel eher in eine Maschine zu stecken.

        Aber jut, nicht alles, was mit KI zu tun hat ist automatisch gut oder überhaupt sinnvoll. Nicht alles braucht KI. Und wenn es im professionellen Rahmen genutzt wird, sollte es auch entsprechenden Gütekriterien genügen.

        • albert180
          link
          fedilink
          Deutsch
          312 days ago

          Sie haben auch geholfen unser Verständnis bei der Krebsdiagnose zu verbessern, weil sie beispielsweise das Zellumfeld mit betrachtet haben, was Menschen bisweilen nicht getan haben.

          Hast du da irgendeine Quelle? Weil das Neoplasien, das Milieu in ihrer Umgebung mitbeeinflussen ist jetzt auch keine revolutionär neue Erkenntnisse.

          Aber damit habe ich auch kein Problem, solange man weiter daran forscht auch die Zusammenhänge zu verstehen. Was ich nicht möchte, ist dass wir irgendwann eine Blackbox haben, die sagt “Krebs”/“Nicht Krebs”, aber wir wissen nicht warum, und können das auch nicht mehr ohne KI nachvollziehen.

          Und davor habe ich ehrlich gesagt auch ein bisschen Sorge.

          Was das “schlampige” Arbeiten angeht, liegt das denke ich auch einfach an den beschissenen Arbeitsbedingungen in Deutschland. Aber ich weiß auch nicht was du konkret mit “schlampigen Arbeiten” meinst.

          Meinen praktischen Pflichtteil des Studiums im letzten habe ich in Deutschland, Schweiz und Österreich absolviert, nirgendwo war die Arbeitsbelastung und auch der Kostendruck im Krankenhaus auch nur ansatzweise so hoch wie in Deutschland. Willentlich schlampig, sind da eher die wenigsten.Gibt ja den bekannten Spruch: „Schnell, günstig oder gut. Suche dir zwei aus"

          Von der universitären Ausbildung her, hatte ich das Gefühl dass diese in Deutschland verglichen mit den anderen Studenten in der Schweiz und Österreich eigentlich in Deutschland ziemlich gut ist. (Wobei ich auch an einer ziemlich “guten” Uni in Deutschland studiert habe)

        • albert180
          link
          fedilink
          Deutsch
          2
          edit-2
          12 days ago

          Naja, wenn man den Artikel im NEJM liest (wobei der ja auch ziemlich kurz und arm an Details ist), dann klingt das ziemlich nach klassischer Forschungsarbeit. Dass die AI dann vorhersagt, dass ein Anti-TNF-Antikörper wie Adalimumab bei einem Patienten gut funktionieren könnte, dessen Entzündung maßgeblich durch TNF getrieben wird, finde ich jetzt erstmal nicht so revolutionär. Auf die Idee wären sie vermutlich auch ohne gekommen.

          (Link zur Originalquelle: https://www.nejm.org/doi/full/10.1056/NEJMc2412494)

          (Wenn jemand den Volltext haben möchte, aber keinen Zugriff hat, gerne PN)

          • @vapeloki@lemmy.world
            link
            fedilink
            112 days ago

            Klar, irgendwann wäre man an den Punkt gekommen. Aber dass das Model in die richtige Richtung zeigt spart Zeit, Geld, und wer weiß was das Ding noch alles findet.

            Das ist ein guter usecase. Selbes passiert aktuell in der Material Forschung.

            Die KI spukt Kandidaten aus, Wissenschaftler prüfen

  • @RoflmasterBigPimp@feddit.org
    link
    fedilink
    Deutsch
    912 days ago

    Mein heißer Nimm:

    Ich mag KI. Ich finde Entwicklung ultra Interessant und auch generative KI finde ich erstaunlich.

    Jedoch finde ich das KI viel zu früh kommerziealisiert wurde um den nächsten großen Technik-Hype auszulösen bzw. um “Blockchain” als Schlagwort abzulösen. Es ist wie so oft das die Profitgier und Ausschlachterei ein eigentlich tolles Produkt/Idee kaputt machen.

    Ich hoffe dezent das die KI-Blase mal platzt und KI zurück in die Labore und Entwicklungsbüros kommt. Aber ich befürchte so schnell bekommen wir da den Deckel nicht wieder drauf .__.

    • @jenesaisquoi@feddit.org
      link
      fedilink
      English
      212 days ago

      Oder einfach Kunstwerke statt künst[wasauchimmer]ische Werke. Man kann Deutsch ausgezeichnet geschlechtsneutral verwenden, man muss sich nur minimal darum bemühen.

      • MaggiWuerze
        link
        fedilink
        212 days ago

        Ich wollte mich damit auch nur kurz über Phettberg lustig machen