Vertreter:innen aus der Wissenschaft oder der Zivilgesellschaft waren in dem Gremium nicht vertreten.
Warum wundert mich das nicht?
Vertreter:innen aus der Wissenschaft oder der Zivilgesellschaft waren in dem Gremium nicht vertreten.
Warum wundert mich das nicht?
KI kann improvisieren, wenn die Regeln nicht ganz klar als solche benannt werden können, oder um schnelle Entscheidungsvorlagen zu formulieren. Teilweise reichen da kleine Sprachmodelle für aus. Es ist oft ein kleines, nettes Werkzeug, um die Prozesssutomatisierung nochmal zu versuchen.
Edit: Ja ich sehe ein, dass die Wortwahl gar keinen Spielraum zulässt und damit mein Kommentar hier falsch ist. Allerdings ist euer pauschaler KI-hate genauso unangebracht wie pauschal KI für alles einzusetzen. Es gibt sehr gute Prozesssutomatisierungen mittels KI. Der Begriff „KI“ ist übrigens nicht falsch, nur etwas generisch.
Wenn Regeln nicht (algorithmisch) formulierbar sind, dann handelt es sich ja offensichtlich nicht um
Stimmt :)
KI bzw. der sauberere Begriff, für was damit wohl gemeint ist, LLM ist ne super Schreibhilfe, aber wenn man LLMs entscheiden lässt, kann dabei alles mögliche passieren
Nicht wirklich. Dafür verpackt man das LLM dann wieder umständlich in Regeln. Funktioniert aber gut für nachvollziehbarkeit und eingeschränkte Auswahlen von vorgegebenen Alternativen, oder strukturierten Ausgaben
Da kann ich nur eingeschränkt zustimmen. Bei LLMs handelt es sich um Modelle, die einem Zufallsprozess unterworfen sind. Man kann noch so viele Regeln/Einschränkungen drumherumbasteln, aber es wird immer die Möglichkeit für komplett falsche Antworten bleiben. Gerade was die Nachvollziehbarkeit betrifft, würde ich garkein Vertrauen in LLMs setzen. Die können eine Erklärung ausgeben, wo die Erklärung selbst und das Ziel der Erklärung nicht übereinstimmen. Wo ich dir voll zustimmen kann, ist, dass LLMs nicht schlecht darin sind (je nach Komplexität) aus vorgegeben Alternativen zu wählen. Dann taugt das eher als Hilfe, aber weniger als Automatisierung.
Wenn Regeln nicht ganz klar benannt sind, dann hat das in der Regel eben genau den Sinn, einen Ermessenspielraum zu lassen. Wenn man das dann mit einer “KI” entscheidet, kann man auch gleich würfeln.
Bitte nicht.
https://www.golem.de/news/claude-agent-ki-automat-verschenkt-waren-fuer-hunderte-dollar-2512-203439.html
Wer sagt, dass KI ein Geschäft führen könne?
Menschliche Geschäftsführer können das oft auch nicht. Das dürfte sogar einer der wenigen Berufe sein, den man durch ein LLM ersetzen könnte, ohne dass das jemand merkt…
(Das soll jetzt kein Argument für LLMs sein)
Führ mal bitte aus wie du das anstellen würdest. Ich sehe täglich live wie KI (nicht nur LLMs) in unterschiedlichsten Unternehmen und Behörden zum Einsatz kommt und kann das nicht so nachvollziehen.
BWL-Justus durch JustusGPT ersetzen und fertig. Man kriegt genau das gleiche zusammenhanglose dumme Zeug, das sich in einem Satz dreimal widerspricht, niemand merkt, dass das jetzt eine Maschine macht.
Sollte eher ein anekdotisches Beispiel dafür sein, was passieren kann, wenn man im Sinne der Prozessautomatisierung das LLM einfach alles machen lässt.