Wochennotiz Nr. 4

Posted on So 07 Jänner 2024 in Blog

Wochennotiz 4

Inhalt:

AMS-Chatbot

Wenn es sich nicht um ein so wichtiges Thema handeln würde, wäre es einfach eine Randnotiz in der AI-Rubrik. So sollte man dem Thema aber auch die Aufmerksamkeit geben, die es meines Erachtens verdient.

Das AMS Österreich hat diese Woche einen Chatbot veröffentlicht, der es der Öffentlichkeit ermöglichen soll, sich über Berufe zu informieren: der Berufsinfomat.

Und was soll man sagen? Es ist so ziemlich alles schiefgegangen, was nur schiefgehen kann. Angeblich wurde das Tool vor der Einführung getestet, aber das ist kaum vorstellbar. Oder die Tests haben darauf abgezielt, ob dieses Tool die Diskriminierungen und den Bias des Arbeitsmarkts korrekt wiedergeben kann. Dann waren sie sogar erfolgreich.

Im Artikel Vorurteile und zweifelhafte Umsetzung: AMS-KI-Chatbot trifft auf Spott und Hohn ist auch schön beschrieben, dass nicht nur die inhaltliche Umsetzung sehr fragwürdig ist. Offensichtlich handelt es sich um ein Produkt von der Stange, das hauptsächlich im Tourismus eingesetzt wird. So ist auch die technische Umsetzung, laut Artikel, teils mangelhaft.

Johannes Kopf meint dazu im Standard:

In diesem Fall hat AMS-Chef Johannes Kopf auf der einst Twitter genannten Plattform sogar selbst reagiert. Die Probleme seien bekannt, erklärt Kopf. Der Bias sei dem Bot nicht so einfach abzugewöhnen, aber man habe schon viel weitergebracht und werde weiter dranbleiben.

Offen bleibt, wie das gehen soll, wenn es sich beim Berufsinfomat nur um eine minimal angepasste Version von ChatGPT handelt. In diesem Fall scheint der bekannte Chatbot mit ein paar zusätzlichen Daten gefüttert worden sein, zudem wurde der sogenannte System Prompt angepasst, der solchen Tools erzählt, wie sie sich verhalten sollen. Das heißt aber eben auch: Die Eingriffsmöglichkeiten des AMS sind enden wollend.

Da es sich um ein altes Modell von OpenAI handelt, bin ich mir nicht sicher, wie sie den Bias aus dem Modell bringen wollen, denn wie auch im Artikel richtig steht, werden die Inhalte von OpenAI um Informationen vom AMS erweitert. Es handelt sich hierbei um eine Technik namens Retrieval Augmented Generation (RAG). Elastic schreibt über RAG:

Retrieval Augmented Generation (RAG) ist eine Technik zur Anreicherung der Textgenerierung mit Informationen aus privaten oder proprietären Datenquellen. Dabei wird ein Abrufmodell, das zum Durchsuchen großer Datensätze oder Wissensdatenbanken entwickelt wurde, mit einem Generationsmodell, wie etwa einem großen Sprachmodell (Large Language Model, LLM) kombiniert, das die Informationen entgegennimmt und sinnvolle Texte generiert.

Der Kommentar von Peter Zellinger im Standard trifft den Nagel ganz gut auf den Kopf: Das AMS hat bei KI so ziemlich alles falsch gemacht

Die Futurezone hat außerdem einige Screenshots zu den Vorurteilen gesammtelt und veröffentlicht: Diese sexistischen Antworten liefert der KI-Chatbot des AMS

Was mich am meisten ärgert, das AMS müsste es eigentlich besser wissen. Es ist grundsätzlich schon so, dass sie über Vorurteile ihren Kund:innen gegenüber wissen. Auch welchen Stereotypen diese ausgesetzt sind. Daher ist es einfach umso schlimmer, dass man Tools einsetzt, die diese Vorurteile in sich tragen und das als Innovation verkauft.

Zumal das AMS mit ihrem AMS Algorithmus schon keine guten Erfahrungen gemacht hat: Der AMS-Algorithmus

Postgres

Das Jahr beginnt mit mehreren spannenden Artikeln zu Postgres:

Einerseits wagt Jonathan Katz einen Ausblick und macht sich Gedanken zu Postgres: Thoughts on PostgreSQL in 2024 Hierbei spricht mir das Thema Extension, das er anschneidet, aus der Seele. Einerseits ist es eine große Stärke von Postgres, andrerseits mittlerweile so groß und breit, dass es schwierig ist den Überblick zu behalten.

Passend zum Thema Extensions gabe es auch einen Kommentar auf Hacker News, der das Businessmodell der Extensionentwickler etwas infrage stellt. Denn jeder pusht sein eigenes Cloudservice, wodurch dann immer Extensions "fehlen":

I really wish there was a way for me (small startup) to be able to use a managed postgres with multiple paid extensions. But they all want to push their own cloud. So you need a plain postgres instance, a timescale instance, a paradedb instance, etc.

Dann gab es noch, auch wenn es nicht nur auf Postgres abzielt, einen Jahresrückblick von Andy Pavlo: Databases in 2023: A Year in Review. Der Rückblick bietet, wie immer, einen schönen Überblick, was sich bei den Datenbanken getan hat. Auch hier kommt natürlich das Thema Vector-Datenbanken nicht zu kurz.

Security

Das Jahr startet mit einigen wenig aufbauenden Meldungen. Google schafft es gleich mehrfach darin aufzutauchen.

AI

Interessantes Video über die grundlegende Mathematik hinter diesen großen Models: The math behind Attention: Keys, Queries, and Values matrices

Dank Satellitenbildern und KI: Bislang unbekannte Fischereiflotten entdeckt

Curl-Etnwickler Daniel Stenberg weist darauf hin, dass man mit den LLMs echt aussehende Bug-Reports zu Sicherheitslücken schreiben kann, denen dann nachgegangen werden muss, um dann festzustellen, es ist nichts dahinter. Also der ganze Prozess unnötig Ressourcen bündelt: Curl-Entwickler pöbelt gegen "KI-Scheiße"

Und die Kanibalisierung um Inhalte geht in der AI-Welt scheinbar jetzt so richtig los: OpenAI will Texte lizenzieren - doch Apple bietet das Vielfache

Diverses

Ich bin über ein Tool gestolpert, dass es ermöglich quadlet Dateien zu erstellen. Als Quelle können ein podman Befehl oder compose Dateien verwendet werden: podlet

Quadlet ist der neue Weg, wie man in Podman die entsprechenden Systemd-Dateien erstellen soll/kann: