Katharina Zweig
wuerg, 19.12.2023 23:29
Meine Stadtrandbibliothek bietet vor allem Spiele, Kinderbücher, DVD und Bahnhofsliteratur, aber auch Spiegel-Bestseller. So griff ich zu einem Buch von Katharina Zweig. [1]
Es ist ja ganz lustig von den vielen Fällen zu lesen, in denen die KI versagt hat: Falsche Kreditwürdigkeit, dunkle Gesichter nicht erkannt, Weg falsch, trotz Alibi verhaftet, massenweise falsch-positiv, Uber-Unfall, Stoppschild nicht erkannt, um nur einige zu nennen. Lasse ich aber sowohl die recht schlichten, die falsch trainierten, die arglos eingesetzten und überforderten Systeme als auch menschliches Versagen außen vor, bleibt nur wenig:
Eigentlich nur ChatGPT und Konsorten, die zwar auch nicht mit Faktenkenntnis und Konsistenz glänzen, aber dem geneigten Anwender viel Arbeit abnehmen können. Ein Kollege sagte angesichts eines ersten Schach spielenden Taschenrechners, es interessiere in wenig, wie gut er spiele, sei aber beeindruckt, daß er nur korrekte Züge mache. Das kann ChatGPT nicht, aber überwältigend ist die einwandfreie Sprache und die formale Erfüllung der gestellten Aufgabe.
Dagegen würde ich Systeme, die allenthalben zur Einstufung, Selektion oder Bilderkennung eingesetzt werden, zumeist nicht als KI-Systeme bezeichnen, insbesondere nicht solche, die aus wenigen am PC eingehackten Daten mit einem Informationsgehalt von ein paar Dutzend Bit Einstufungen ableiten. Soweit waren wir schon vor dreißig Jahren, da ich nach einer schönen Fortbildung zu damaligen KI-Systemen ganz normal mit PL/I weitergemacht habe. Geblieben ist mir nur ein Buch. [2]
[1] Katharina Zweig: Die KI war's! Heine, 2023. Der Titel erinnert mich daran, wie sehr für den Endbenutzer immer der Computer und für den Auftraggeber der Programmierer schuld war. Nie die falsche Erwartung und Bedienung, nie ungenaue Vorgaben und mangelhafte Hilfsmittel.
[2] Michael Eisenberg: programming in Scheme. The Scientific Press, 1988. Die Effekthascherei beginnt schon mit dem kleinen P im Titel. Und Scheme ist auch nur eine Programmiersprache, um das zu basteln, was man damals schon KI nannte und auf eine 5‑1/4-Zoll-Diskette paßte.
[3] Helmar Frank (Hrg.): Kybernetik - Brücke zwischen den Wissenschaften. Umschau Verlag, Frankfurt, 3. Auflage, 1962. Aus dem Umschlagtext: „Für die Kybernetik ist kennzeichnend, daß mathematische Methoden in wissenschaftliche Bereiche eindringen, in denen sie bisher als nicht praktikabel erschienen, z. B. in Physiologie, Psychologie und Soziologie.“ Dagegen ist der heutige Anspruch der KI doch recht bescheiden.
Es ist ja ganz lustig von den vielen Fällen zu lesen, in denen die KI versagt hat: Falsche Kreditwürdigkeit, dunkle Gesichter nicht erkannt, Weg falsch, trotz Alibi verhaftet, massenweise falsch-positiv, Uber-Unfall, Stoppschild nicht erkannt, um nur einige zu nennen. Lasse ich aber sowohl die recht schlichten, die falsch trainierten, die arglos eingesetzten und überforderten Systeme als auch menschliches Versagen außen vor, bleibt nur wenig:
Eigentlich nur ChatGPT und Konsorten, die zwar auch nicht mit Faktenkenntnis und Konsistenz glänzen, aber dem geneigten Anwender viel Arbeit abnehmen können. Ein Kollege sagte angesichts eines ersten Schach spielenden Taschenrechners, es interessiere in wenig, wie gut er spiele, sei aber beeindruckt, daß er nur korrekte Züge mache. Das kann ChatGPT nicht, aber überwältigend ist die einwandfreie Sprache und die formale Erfüllung der gestellten Aufgabe.
Dagegen würde ich Systeme, die allenthalben zur Einstufung, Selektion oder Bilderkennung eingesetzt werden, zumeist nicht als KI-Systeme bezeichnen, insbesondere nicht solche, die aus wenigen am PC eingehackten Daten mit einem Informationsgehalt von ein paar Dutzend Bit Einstufungen ableiten. Soweit waren wir schon vor dreißig Jahren, da ich nach einer schönen Fortbildung zu damaligen KI-Systemen ganz normal mit PL/I weitergemacht habe. Geblieben ist mir nur ein Buch. [2]
[1] Katharina Zweig: Die KI war's! Heine, 2023. Der Titel erinnert mich daran, wie sehr für den Endbenutzer immer der Computer und für den Auftraggeber der Programmierer schuld war. Nie die falsche Erwartung und Bedienung, nie ungenaue Vorgaben und mangelhafte Hilfsmittel.
[2] Michael Eisenberg: programming in Scheme. The Scientific Press, 1988. Die Effekthascherei beginnt schon mit dem kleinen P im Titel. Und Scheme ist auch nur eine Programmiersprache, um das zu basteln, was man damals schon KI nannte und auf eine 5‑1/4-Zoll-Diskette paßte.
[3] Helmar Frank (Hrg.): Kybernetik - Brücke zwischen den Wissenschaften. Umschau Verlag, Frankfurt, 3. Auflage, 1962. Aus dem Umschlagtext: „Für die Kybernetik ist kennzeichnend, daß mathematische Methoden in wissenschaftliche Bereiche eindringen, in denen sie bisher als nicht praktikabel erschienen, z. B. in Physiologie, Psychologie und Soziologie.“ Dagegen ist der heutige Anspruch der KI doch recht bescheiden.
... comment
wuerg,
21.12.2023 21:36
Auf Seite 252 ist schwarzweiß ein Stoppschild mit vier kleinen Aufkleber zu sehen, das von einer KI für 45km/h gehalten wurde. Wahrscheinlich nicht von der Software eines selbstfahrenden Autos, sondern von eher schlecht trainierter Billig‑KI im Rahmen einer wie auch immer gearteten Untersuchung darüber, wo Aufkleber anzubringen sind, um die KI scheitern lassen, besser: Nachzuweisen, daß nur minimale Änderungen dazu erforderlich sind.
Ich darf vermuten: Die Mustererkennung war wie das Bild im Buch nur schwarzweiß, wodurch die großflächig rote Farbe des Stoppschildes nicht zum Zuge kam. Auch wird es ein gedankenlos trainiertes monolithisches System gewesen sein, zumindest keines, das (auch ohne KI) Achteckigkeit erkennt. Die seit Jahrzehnten erprobte Schrifterkennung wird man sich ebenso gespart haben.
Was also will uns das sagen? Daß der Mensch so toll ist, weil er weiß, wo Stoppschilder stehen könnten und sie dann auch sieht, sie schon gar nicht mit einem 45km/h-Schild verwechselt, das eher am Anfang denn am Ende einer Straße stünde und rund wäre. Nur gibt es ein solches Verkehrsschild wohl gar nicht. Es war eher ein Aufkleber eines geschwindigkeitsbeschränkten Fahrzeuges. Oder wurde damit trainiert? Vielleicht ist mein Eindruck ja nicht gerechtfertigt: Schlechte Untersuchung eines schlechten Systems.
Ich darf vermuten: Die Mustererkennung war wie das Bild im Buch nur schwarzweiß, wodurch die großflächig rote Farbe des Stoppschildes nicht zum Zuge kam. Auch wird es ein gedankenlos trainiertes monolithisches System gewesen sein, zumindest keines, das (auch ohne KI) Achteckigkeit erkennt. Die seit Jahrzehnten erprobte Schrifterkennung wird man sich ebenso gespart haben.
Was also will uns das sagen? Daß der Mensch so toll ist, weil er weiß, wo Stoppschilder stehen könnten und sie dann auch sieht, sie schon gar nicht mit einem 45km/h-Schild verwechselt, das eher am Anfang denn am Ende einer Straße stünde und rund wäre. Nur gibt es ein solches Verkehrsschild wohl gar nicht. Es war eher ein Aufkleber eines geschwindigkeitsbeschränkten Fahrzeuges. Oder wurde damit trainiert? Vielleicht ist mein Eindruck ja nicht gerechtfertigt: Schlechte Untersuchung eines schlechten Systems.
... link
... comment