Vertreter:innen aus der Wissenschaft oder der Zivilgesellschaft waren in dem Gremium nicht vertreten.

Warum wundert mich das nicht?

  • unnamed1@feddit.org
    link
    fedilink
    arrow-up
    1
    arrow-down
    12
    ·
    edit-2
    5 days ago

    KI kann improvisieren, wenn die Regeln nicht ganz klar als solche benannt werden können, oder um schnelle Entscheidungsvorlagen zu formulieren. Teilweise reichen da kleine Sprachmodelle für aus. Es ist oft ein kleines, nettes Werkzeug, um die Prozesssutomatisierung nochmal zu versuchen.

    Edit: Ja ich sehe ein, dass die Wortwahl gar keinen Spielraum zulässt und damit mein Kommentar hier falsch ist. Allerdings ist euer pauschaler KI-hate genauso unangebracht wie pauschal KI für alles einzusetzen. Es gibt sehr gute Prozesssutomatisierungen mittels KI. Der Begriff „KI“ ist übrigens nicht falsch, nur etwas generisch.

    • ftbd@feddit.org
      link
      fedilink
      arrow-up
      22
      ·
      5 days ago

      Wenn Regeln nicht (algorithmisch) formulierbar sind, dann handelt es sich ja offensichtlich nicht um

      „rein regelgebundene Prozesse ohne Ermessens- und Beurteilungsspielraum“

    • Shyze3D@feddit.nl
      link
      fedilink
      arrow-up
      12
      ·
      5 days ago

      KI bzw. der sauberere Begriff, für was damit wohl gemeint ist, LLM ist ne super Schreibhilfe, aber wenn man LLMs entscheiden lässt, kann dabei alles mögliche passieren

      • unnamed1@feddit.org
        link
        fedilink
        arrow-up
        1
        ·
        5 days ago

        Nicht wirklich. Dafür verpackt man das LLM dann wieder umständlich in Regeln. Funktioniert aber gut für nachvollziehbarkeit und eingeschränkte Auswahlen von vorgegebenen Alternativen, oder strukturierten Ausgaben

        • Shyze3D@feddit.nl
          link
          fedilink
          arrow-up
          4
          ·
          5 days ago

          Da kann ich nur eingeschränkt zustimmen. Bei LLMs handelt es sich um Modelle, die einem Zufallsprozess unterworfen sind. Man kann noch so viele Regeln/Einschränkungen drumherumbasteln, aber es wird immer die Möglichkeit für komplett falsche Antworten bleiben. Gerade was die Nachvollziehbarkeit betrifft, würde ich garkein Vertrauen in LLMs setzen. Die können eine Erklärung ausgeben, wo die Erklärung selbst und das Ziel der Erklärung nicht übereinstimmen. Wo ich dir voll zustimmen kann, ist, dass LLMs nicht schlecht darin sind (je nach Komplexität) aus vorgegeben Alternativen zu wählen. Dann taugt das eher als Hilfe, aber weniger als Automatisierung.

    • trollercoaster@sh.itjust.works
      link
      fedilink
      Deutsch
      arrow-up
      10
      ·
      5 days ago

      Wenn Regeln nicht ganz klar benannt sind, dann hat das in der Regel eben genau den Sinn, einen Ermessenspielraum zu lassen. Wenn man das dann mit einer “KI” entscheidet, kann man auch gleich würfeln.

        • trollercoaster@sh.itjust.works
          link
          fedilink
          Deutsch
          arrow-up
          2
          ·
          edit-2
          4 days ago

          Menschliche Geschäftsführer können das oft auch nicht. Das dürfte sogar einer der wenigen Berufe sein, den man durch ein LLM ersetzen könnte, ohne dass das jemand merkt…

          (Das soll jetzt kein Argument für LLMs sein)

          • unnamed1@feddit.org
            link
            fedilink
            arrow-up
            1
            ·
            4 days ago

            Führ mal bitte aus wie du das anstellen würdest. Ich sehe täglich live wie KI (nicht nur LLMs) in unterschiedlichsten Unternehmen und Behörden zum Einsatz kommt und kann das nicht so nachvollziehen.

            • trollercoaster@sh.itjust.works
              link
              fedilink
              Deutsch
              arrow-up
              1
              ·
              4 days ago

              BWL-Justus durch JustusGPT ersetzen und fertig. Man kriegt genau das gleiche zusammenhanglose dumme Zeug, das sich in einem Satz dreimal widerspricht, niemand merkt, dass das jetzt eine Maschine macht.

        • Shyze3D@feddit.nl
          link
          fedilink
          arrow-up
          1
          ·
          5 days ago

          Sollte eher ein anekdotisches Beispiel dafür sein, was passieren kann, wenn man im Sinne der Prozessautomatisierung das LLM einfach alles machen lässt.