Kommentare zum Theme Künstliche Intelligenz
AI
…
Maschinisierung und Mathematisierung der Sprache und Exponentialisierung der Deutungshoheit. Nicht mehr garbage in to garbage out aber narrative overload to exponential polarisation. Game over:
https://www.deutschlandfunk.de/es-zaehlt-was-sich-zaehlen-laesst-100.html
Xina schafft seit Jahren 50 Lehrstühle pro Jahr in AI, diejenigen in Militär- und Geheimdienstakademien nicht mitgerechnet (weil unbekannt).
AI Ethics wird dort in den Lehrplänen null Rolle spielen.
.
Dort wo OpenAI und Google - allerdings nur aufgrund massiver Intervention von Experten und Aktivisten - Produkte stoppen und einengen mussten, scheren sich Russen und Xinesen einen Dreck.
Wenn fake news Generatoren von der Leine gelassen und deep fake Farmen aktiviert sind, wird es zu spät sein.
Aber es ist schon einiges unaufhaltsam in den Graben gerauscht in der deutschen Digitalpolitik. Aus Unfähigkeit, Unlust und einem eklatanten Mangel an Verantwortlichkeit.
Der Schaden für Demokratie, Freiheit und Wirtschaft wird astronomisch sein.
Verdanken werden wir das wieder einmal kapital überforderten Politikern.
.
"Was schlagen Sie vor? KI als Virus einstufen? Verbieten?"
Das Gleiche das die Gesellschaft vor einer Unzahl an Risiken zu schützen versucht.
Im gesellschaftlichen und politischen Diskurs errungene und durch Expertenmeinung informierte Regulierung und Gesetzgebung wie wir sie beispielsweise von biologischen Kampfstoffen, pharmazeutischen Wirkstoffen und den Gefahren des Flugverkehrs kennen.
.
Zunächst ist Regulierung von solcher Tragweite immer ein marathonlaufendes Monster.
Gesetzgebung in den Ländern obliegt den Ländern selbst aber die EU ist ambitioniert Regulierung breiter und tiefer, international verbindlicher und nachhaltiger auf-, ein- und umzusetzen.
Wie bei GDPR geschehen. Vor Ewigkeiten mit ersten Konsultationen begonnen, nun nach vielen Jahren in den ersten Zügen aber noch in Kinderschuhen mit Zahnungsschmerzen.
AI Regulierung könnte einen ähnlichen Prozess durchlaufen und das dauert.
Erste Regelwerke gibt es: https://www.lawfareblog.com/…
Während sich das auf EU Ebene (weiter)entwickelt sind die Nationen immer noch für ihre Gesetzgebung und Rahmenbedingungen verantwortlich, die dann natürlich mit der EU und deren Regelwerk abgestimmt werden müssen.
Die nationale Gesetzgebung kann durchaus auch einen anderen Blickwinkel und Ansatz wählen. Als Ergänzung oder "Arbeitsteilung" der verschiedenen Regelwerke wäre das nicht unüblich und würde spezifischen Besonderheiten Raum und Flexibilität einräumen. Beispielsweise könnte Deutschland sind im Bereich Mobilität kümmern, die Franzosen um Militär, etc.
Die EU wählt einen systemischen Ansatz (siehe Link oben).
Wir kennen das von vielen Regularien: beispielsweise wird nicht AI als Konzept oder Produkt/Service reguliert sondern die systemischen Komponenten. Aus der Aviation und Life Science Regulierung kennen wir ähnliche Ansätze.
...auch dort in einem Zusammenspielt der nationalen und übergeordneten Behörden und Regelwerke. Beispielsweise FAA und nationale Aviation Regulierung oder FDA, EMA und die nationalen Behörden.
.
"Von daher verfolge ich eher einen Ansatz der früher Ansetzt."
Natürlich wäre das ideal!
Aber Gleichzeitig denkt man, dass Russland ohne weiteres Deutschland und die ganze NATO vernichten könne, obwohl die NATO alle NATO-Waffen hat.
…
Habe ich hier immer mal wieder und seit langer Zeit erwähnt und bin meistens ausgelacht worden: Xina hat in den letzten Jahren jedes Jahr ca. 50 KI Lehrstühle geschaffen. Diejenigen an den Militärakademien, Intelligence Agenturen und Geheimdiensten nicht mit gerechnet (weil unbekannt).
KI Ethik wird in dem Lehrplänen dort keine Rolle spielen.
Hat das irgendjemand auf dem Radar?
PRIVACY, SECURITY AND THE RISE OF 'DEEPFAKES'
AI BIAS AND WIDENING SOCIOECONOMIC INEQUALITY
AUTONOMOUS WEAPONS AND A POTENTIAL AI ARMS RACE
STOCK MARKET INSTABILITY CAUSED BY ALGORITHMIC HIGH FREQUENCY TRADING
Wir sind kapital unfähig und unwillig unseren Lebensraum zu schützen und wir sind kolossal überfordert mit diesen Gefahren und Risiken.
Das wird nichts mehr hier.
…
„Gleichzeitig glauben Menschen, dass Computer neutral und unbestechlich sein können – was das Ganze noch problematischer macht.“
Das ist hochgradig naiv.
KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben.
Also wird KI immer so gefährlich sein wir unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
…
Warum nimmt die Öffentlichkeit (und leider auch viele Journalisten) solche Fragen immer erst wahr und ernst wenn es schon viel zu spät ist? Diese Fragen stellen wir seit sehr sehr langer Zeit. Interessiert hat das bislang niemanden:
Wenn KI Schaden verursacht, wer haftet? Wie werden Vorteile, Profit, Verlust, Verantwortlichkeit und Haftung innerhalb der Wertschöpfungskette verteilt? Wer regelt das, wie? Alles völlig ungeklärt. Bei physischen Produkten und den meisten Dienstleistungen ist das geregelt. Warum nicht bei KI?
Lustig werden die QLeerdenker wenn sie dann gleich mal anfangen LÜGEN KI durch die Gassen zu brüllen.
https://www.zeit.de/politik/2023-04/ki-chatgpt-nutzung-gefahr-nachrichtenpodcast#cid-64980466
…
Wie werden (von wem) mit welchen Inhalten die Trainingsprogramme gestaltet und reguliert? Wir scheitern bereits in dieser frühen Phase der künstlichen Intelligenz. Dermaleinst werden Menschen ihr Bewusstsein in die Cloud verlegen und sich ihrer fehlkonstruierter Körper entledigen und wir werden die Frage beantworten müssen: wer bedient den „Aus“ Knopf.
Und: Warum nimmt die Öffentlichkeit (und leider auch viele Journalisten) solche Fragen immer erst wahr und ernst wenn es schon viel zu spät ist? Diese Fragen stellen wir seit sehr sehr langer Zeit. Interessiert hat das bislang niemanden.
Wenn KI Schaden verursacht, wer haftet? Wie werden Vorteile, Profit, Verlust, Verantwortlichkeit und Haftung innerhalb der Wertschöpfungskette verteilt? Wer regelt das, wie? Alles völlig ungeklärt. Bei physischen Produkten und den meisten Dienstleistungen ist das geregelt. Warum nicht bei KI?Lustig werden die QLeerdenker wenn sie dann gleich mal anfangen LÜGEN KI durch die Gassen zu brüllen.
https://www.zeit.de/digital/2023-04/eu-abgeordnete-ki-regulierung#cid-65195433
…
Das ist nicht falsch aber da wir leider fast ausschliesslich Wachstum und Profit belohnen und so gut wie nie Risikovermeidung, muss man sich um die positiven Auswirkungen nicht sorgen, die sind bei neuen Technologien meist zuerst da. Weil es auch nur für positive Ideen Investitionen und das Herzblut der Forscher und Entwickler gibt.
Dann kommt der Bruch während der Applikation. Dort müsste begonnen werden zu regulieren bevor es zu Missbrauch kommt. Aber das haben wir seit 280‘000 Jahren noch nicht so doll drauf.
Dabei ist das bekannt. Vor allem auch bei digitalen Technologien.
Nicholas Negroponte schrieb in seinem „Being Digital“ 1993 sinngemäss: „Es ist völlig unerheblich ob wir derlei fortschrittliche Technologien gutheissen oder weniger. Wir haben aber keine andere Wahl als sie positiv zu beeinflussen und sinnvoll zu regulieren. Weil diejenigen, die sie missbrauchen wollen immer einen oder zwei Schritte voraus sind.“
Auch darauf hat kein Mensch gehört und Negroponte war zu diesem Zeitpunkt sowas wie der Carl Sagan der digitalen Kommunikationstechnologie.
…
Generative Künstliche Intelligenz.
Matthias Hornschuh von der Initiative Urheberrecht über einige der erschreckenden regulatorischen Lücken.
0:19min-5:50min.
https://www.deutschlandfunk.de/kultur-heute-19-04-2023-komplette-sendung-dlf-e782f023-100.html
…
Wenn KI Schaden verursacht, wer haftet? Wie werden Vorteile, Profit, Verlust, Verantwortlichkeit und Haftung innerhalb der Wertschöpfungskette verteilt? Wer regelt das, wie? Alles völlig ungeklärt. Bei physischen Produkten und den meisten Dienstleistungen ist das geregelt. Warum nicht bei KI? Bekannt sind diese Lücken schon sehr lange, angemahnt wird ebenso lange. Passiert ist nichts.
Wie werden (von wem) mit welchen Inhalten die Trainingsprogramme gestaltet und reguliert? Wir scheitern bereits in dieser frühen Phase der künstlichen Intelligenz. Dermaleinst werden Menschen ihr Bewusstsein in die Cloud verlegen und sich ihrer fehlkonstruierter Körper entledigen und wir werden die Frage beantworten müssen: wer bedient den „Aus“ Knopf.
https://www.zeit.de/politik/ausland/2023-05/kamala-harris-ki-google-microsoft-openai#cid-65266191
https://www.zeit.de/digital/2023-05/eu-usa-kuenstliche-intelligenz-verhaltenskodex#cid-65540942
…
KI kann kein storytelling und wird es nie können.
KI kann nicht fühlen, empathisch sein oder leidenschaftlich. Wenn wir wollten, dass sie das könnte, würden wir sie gegen uns richten.
Aber: ich schrieb und meinte richtig gutes storytelling. Also der Unterschied zwischen plot und story.
Eine Aneinanderreihung von events, das kann KI heute schon. Das ist aber noch keine story nach meinem Anspruch. Natürlich haben Menschen verschiedene Ansprüche und es wird immer mehr Schema F plot mainstream fans geben als Menschen, die wirkliche story verlangen. Genau da wird aber aus dem Einheitsmatsch der Unterschied möglich.
Eine story ist nicht die Aneinanderreihung von externen events (plot) sondern die erlebbar geschilderte tief emotionale Erfahrung, Verzweiflung, innere Zerrüttung eines Protagonisten die/der vor einem unlösbaren Problem steht (gerne ohne es selbst zu erfassen, noch lieber wenn seine Überzeugung und sein Wesen, die Summe der bisherigen Lebenserfahrung das Problem oder zumindest das grösste Hindernis sind) und auf dem Weg der Problemlösung dazu gezwungen wird sich radikal zu ändern. Und das auf einer Zeitspirale die sich zunehmend schneller dreht, gespickt mit unterhaltsamen und/oder lehrreichen Details aus back story und Kontextmaterial, die wiederum im Konflikt mit dieser Evolution steht, sie aber gleichzeitig antreibt und bedingt und in der Erreichung der Ziele oder Wünsche einen enormen emotionalen Preis zahlen muss.
Was das emotional mit einem Menschen macht ist von einer KI unmöglich zu ermitteln und darzustellen weil sie nicht zur Empathie fähig ist.
https://www.zeit.de/arbeit/2023-05/arbeitsmarkt-umwaelzung-zunkunft-jobs#cid-65235247
.
Zudem: eine richtig gute story baut die bisherige Lebenserfahrung, Erwartungen und Wünsche verschiedener Charaktere im Verhältnis und Konflikt zueinander auf. Alles inklusive verborgener innerer emotionaler Geschehnisse und Veränderungen die sich durch die story Dynamik entwickeln.
Tarantino schreibt Charakterprofile für jeden Hauptakteur die ganze Bibliotheken füllen könnten. Das meiste an diesem Material ist emotional, in Bewegung und im Konflikt, für eine KI absolut nicht zugänglich, also nicht verwertbar.
Als Dokumentarfilmer hätte ich Respekt vor KI.
Als anspruchsvoller storyteller würde ich mich freuen über das Potential mich unterscheiden und messen zu können.
Wirklich gute stories können von einer KI erst dann „empfunden“ und erzählt werden, wenn sie so menschenähnlich ist, dass die negativen Kräfte auf der Welt sie längst gegen ihre Gegner gerichtet und unermessliches Unheil angerichtet haben.
Dann braucht es keine stories mehr, dann ist die Apokalypse die story.
…
Das ist bei Weitem nicht die erste Warnung aber sie wird wieder verhallen, diffamiert werden und lächerlich gemacht. Genauso wie bis vor kurzen noch von Klimahysterie zu lesen war, was sich bei nicht wenigen Menschen zur Öko-Diktatur gewandelt hat und immer noch nicht ernstgenommen wird.
Wir sind keine proaktive Spezies. Leider wachsen uns die selbst geschaffenen Gefahren über den Kopf und niemand gibt die eigene Überforderung zu.
Sollte KI dermaleinst (was bei dieser rasanten Entwicklung sehr schnell gehe kann) uns als Zerstörer des Lebensraums ausmacht (was wir sind) und wir keine komplette Kontrolle und Beherrschung über diese und nachfolgende Technologien haben, ist es vorstellbar, dass eine KI Schlüsse zieht, die Zerstörer in die Schranken zu weisen oder zu eliminieren.
Ich weiss, ich bin hier und in anderen Foren seit Jahren immer wieder angegiftet und ausgelacht worden wegen solcher Aussagen. Auch wegen dieser: China schafft seit Jahren jedes Jahr 50+ KI Lehrstühle. Die an den Militär- und Geheimdienstakademien nicht mitgezählt. KI Ethik wird dort keine Rolle spielen. Aus der Politik hört man davon ein fettes Nichts. Komplette Ahnungslosigkeit.
Nicholas Negroponte schrieb in seinem „Being Digital“ 1993 sinngemäss: „Es ist völlig unerheblich ob wir derlei fortschrittliche Technologien gutheissen oder weniger. Wir haben aber keine andere Wahl als sie positiv zu beeinflussen und sinnvoll zu regulieren. Weil diejenigen, die sie missbrauchen wollen, stets 2 Schritte voraus sind
https://www.zeit.de/digital/2023-05/ki-stellungnahme-risiken-chatgpt#cid-65529888
…
“Freiwillig“
Das ist hochgradig naiv.
1. Weiss niemand was an welchen Militärakademien und Geheimdienstinstitutionen gelehrt und entwickelt wird. KI Ethic wird dort kaum im Lehrplan stehen.
2. Weiss niemand welche privaten Akteure mit elastischen Beziehungen zu Recht und Korruption in dem Feld investieren und agieren (werden).
3. KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben. Also wird KI immer so gefährlich sein wir unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
Das Ding ist gelaufen. Wenn KI „begreift“ wer hier der grösste Schädling ist und Möglichkeiten findet zu handeln: Game over.
https://www.zeit.de/digital/2023-05/eu-usa-kuenstliche-intelligenz-verhaltenskodex#cid-65541011
…
"Wie das ablaufen könnte, dass Maschinen den Menschen zu Leibe rücken, bleibt dabei vage. Altman selbst spricht davon, dass etwa biologische Waffen dank KI einfacher hergestellt werden könnten. Dafür bräuchte es immerhin noch Menschen, die diese Waffen verwenden wollen."
Angenommen, es wird verpasst der KI Grenzen in Interpretation und Handlungsspielräumen zu setzen.
Wenn die KI zum Schluss kommt, dass die Wurzel allen Übels der Mensch ist, reicht ein kleiner Fehler um diesem schädlichen Tun etwas entgegenzustellen.
In einer Welt wo ständig Cyberattacken passieren, Datenschutzregeln gebrochen werden und haarsträubende Fehler passieren, Regulierung auf kapital überforderte oder ignorante Politiker wartet und wo Menschen sich nach dem Hinweis, dass die eben entnommene Zigarette auf jeden Fall tödlich sein wird, sich die nächste Schachtel kaufen, woher nehmen wir die naive Zuversicht, dass das schon alles irgendwie klappen wird und dass wir jederzeit ein ausreichendes Mass an Kontrolle über uns und die Technologie haben werden?
https://www.zeit.de/digital/2023-06/ki-regulierung-eu-open-ai-lobbyismus#cid-65806589
…
"Es ist einfach – und vielleicht sogar richtig"
Vielleicht?
PRIVACY, SECURITY AND THE RISE OF 'DEEPFAKES' AI BIAS AND WIDENING SOCIOECONOMIC INEQUALITY AUTONOMOUS WEAPONS AND A POTENTIAL AI ARMS RACE STOCK MARKET INSTABILITY CAUSED BY ALGORITHMIC HIGH FREQUENCY TRADING - soll ich weitermachen?
https://www.zeit.de/digital/2023-06/ki-regulierung-eu-open-ai-lobbyismus/seite-2#cid-65806623
…
Weichspülargumente sind mMn hochgradig naiv.
1. Weiss niemand was an welchen Militärakademien und Geheimdienstinstitutionen gelehrt und entwickelt wird. KI Ethic wird dort kaum im Lehrplan stehen.
2. Weiss niemand welche privaten Akteure mit elastischen Beziehungen zu Recht und Korruption in dem Feld investieren und agieren (werden).
3. KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben.
Also wird KI immer so gefährlich sein wir unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
Das Ding ist gelaufen.
Wenn KI „begreift“ wer hier der grösste Schädling ist und Möglichkeiten findet zu handeln: Game over.
https://www.zeit.de/digital/2023-06/ki-regulierung-eu-open-ai-lobbyismus/seite-2#cid-65806643
…
Our design flaw is that we are, by and large, a (power)corrupt species.
What if AI defined itself as enlightened by removing the most corrupt and destructive being from the environment?
In the end, it could just be mathematics or simple logic: Balancing of interests, weighing of goods.
Where does the audacity come from to believe that our inherent corruption would give way to a sudden victory of reason and that we would henceforth use AI without exception for the progress and benefit of humanity?
And where does the naive confidence come from that we can master this technology flawlessly, while we are confronted daily with digital disasters, attacks and crashes of every magnitude?
Of course we have to try everything in our power to influence technology positively because those who follow their corrupt impulses are always two steps ahead (Nicholas Negroponte "Being Digital" 1993).
However, as we become more challenged and overburdened, our willingness to act naively and in good faith should also diminish.
And this should start with distinct and enforced rules and regulations to prevent ai to become conscious in the first place.
…
Haben Appelle gereicht die Gefahren für Demokratie und für den gesellschaftlichen Zusammenhalt durch Social Media auszuschliessen?
Haben Appelle gereicht um Arzneimittel nach Arzneimittelskandalen, Fleischkonsum nach Gammelfleisch und Flugreisen nach Flugzeugabstürzen sicher zu machen?
Wenn Appelle reichen, warum ersetzen wir dann nicht Gesetzbücher und Regulierung durch Handbücher?
KI hat enormes Potential, auch negatives. Warum gehen wir derart naiv damit um?
Nicholas Negroponte hatte in seinem Buch ‚Being Digital‘ bereits Anfang 90er darauf hingewiesen, sinngemäss: „Egal ob wir Digitalisierung mögen oder unterstützen, diejenigen die sie negativ ausnutzen wollen, sind bereits dabei das zu tun und sie werden uns immer ein paar Schritte voraus sein. Wir haben also gar keine andere Chance als sie positiv zu beeinflussen.“
Und dazu gehört anzuerkennen, dass das naive Huldigen der imaginären Eigenverantwortung fahrlässig bis katastrophal sein wird.
Ich bin begeisterter Nutzer von KI Lösungen und generiere Unmengen hilfreichen gedanklichen und konzeptionellen Rohmaterials damit.
Ich möchte aber bitte eine sichere Umgebung dazu und dabei verlasse ich mich nicht gerne auf Hoffnung und Glück.
Abgesehen davon, dass ich bitte Urheberschutz geklärt haben möchte und was passiert wenn durch KI Schäden entstehen, wer wo in der Wertschöpfungskette verdient, Verantwortung trägt und wer was wie kontrolliert.
Kurz: ich möchte KI so vertrauen können wie wir Arznei vertrauen können.
https://www.zeit.de/digital/2023-10/ki-gesetz-eu-chatgpt-4-regulierung#cid-67134854
…
Weltklasse Dronenpiloten sind gerade von einer KI Drone geschlagen worden: https://www.srf.ch/news/schweiz/meilenstein-in-der-robotik-autonome-ki-drohne-swift-besiegt-erstmals-den-menschen
Nun müsste die KI nur noch erkennen, dass wir erstens so dämlich sind den Lebensraum nachhaltig zu zerstören und zweitens nicht in der Lage sie zu bezwingen.
Game over.
https://www.zeit.de/digital/2023-10/ki-gesetz-eu-chatgpt-4-regulierung#cid-67134748
…
Weichspülargumente sind mMn hochgradig naiv.
Xina stampft seit Jahren jährlich 50 KI Lehrstühle aus dem Boden. Diejenigen in den Militär- und Geheimdienstakademien nicht mit gerechtnet (wes werden nicht weniger sein).
1. Weiss niemand was an welchen Militärakademien und Geheimdienstinstitutionen gelehrt und entwickelt wird. KI Ethic wird dort kaum im Lehrplan stehen.
2. Weiss niemand welche privaten Akteure mit elastischen Beziehungen zu Recht und Korruption in dem Feld investieren und agieren (werden).
3. KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben.
Also wird KI immer so gefährlich sein wie unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
Panic over?
https://www.zeit.de/digital/2023-10/ki-gesetz-eu-chatgpt-4-regulierung#cid-67134911
…
Bringen wir die Aufmerksamkeit und Sorgfalt mit als Menschen, selbst als Eltern, die potenten Chancen zu nutzen und die Risiken zu minimieren? https://youtu.be/F4WZ_k0vUDM?feature=shared
https://www.zeit.de/digital/2023-10/ki-gesetz-eu-chatgpt-4-regulierung#cid-67145866
…
Weil hier immer wieder die KI ins Spiel gebracht wird:
KI kann nicht fühlen, empathisch sein oder leidenschaftlich. Wenn wir wollten, dass sie das könnte, würden wir sie mit Fähigkeiten ausstatten, die uns imperfekt, zerstörerisch, unsicher und leidenschaftlich machen, fehlerbeladen, ergo sie potentiell auch gegen uns richten.
Richtig gutes storytelling, also Unterschied zwischen plot und story:
Eine Aneinanderreihung von events, das kann KI heute schon. Das ist aber noch keine story. Natürlich haben Menschen verschiedene Ansprüche und es wird immer mehr Schema F plot mainstream fans geben (es gibt ja Gründe warum es ganze 6! Transformers Filme gibt) als Menschen, die wirkliche gute story verlangen. Genau da wird aber aus dem Einheitsmatsch der Unterschied möglich:
Eine story ist nicht die Aneinanderreihung von externen events (plot) sondern die erlebbar geschilderte tief emotionale Erfahrung, Verzweiflung, innere Zerrüttung eines Protagonisten die/der vor einem unlösbaren Problem steht (meistens ohne es zu Beginn voll selbst zu erfassen, noch lieber wenn seine Überzeugung und sein Wesen, die Summe der bisherigen Lebenserfahrung das Problem oder zumindest das grösste Hindernis sind) und auf dem Weg der Problemlösung dazu gezwungen wird einen massiven Preis zu zahlen, sich ggf. radikal zu ändern.
Teil 2:
Und das auf einer Zeitspirale die sich zunehmend schneller dreht, gespickt mit unterhaltsamen und/oder lehrreichen Details aus back story und Kontextmaterial, die wiederum im Konflikt mit dieser Evolution steht, sie aber gleichzeitig antreibt und bedingt und in der Erreichung der Ziele oder Wünsche einen enormen emotionalen Preis zahlen muss.
Was das emotional mit einem Menschen macht ist von einer KI unmöglich zu ermitteln und darzustellen weil sie nicht zur Empathie fähig ist.
Zudem: eine richtig gute story baut die bisherige Lebenserfahrung, Erwartungen und Wünsche verschiedener Charaktere im Verhältnis und Konflikt zueinander auf. Alles inklusive verborgener innerer emotionaler Geschehnisse und Veränderungen die sich durch die story Dynamik entwickeln.
Tarantino schreibt Charakterprofile für jeden Hauptakteur die ganze Bibliotheken füllen könnten. Das meiste an diesem Material ist emotional, in Bewegung und im Konflikt, für eine KI absolut nicht zugänglich, also nicht verwertbar.
Als Dokumentarfilmer hätte ich Respekt vor KI.
Als anspruchsvoller storyteller würde ich mich freuen über das Potential mich unterscheiden und messen zu können.
Wirklich gute stories können von einer KI erst dann „empfunden“ und erzählt werden, wenn sie so menschenähnlich ist, dass die negativen Kräfte auf der Welt sie längst gegen ihre Gegner gerichtet und unermessliches Unheil angerichtet haben.
Dann braucht es keine Stories mehr, dann ist die Apokalypse die Story.
https://www.zeit.de/2023/43/hollywood-streik-ende-einigung-drehbuchautoren-ki#cid-67202453
…
Soll ich den Artikel als Relativierung der Gefahren verstehen, die bereits heute keine kleinen Probleme, kein kleines Leid erzeugen und nur ein früher Hinweis darauf sind, welch leichtes Spiel bad actors bereits heute haben?
https://www.bbc.co.uk/news/world-europe-66877718
https://youtu.be/F4WZ_k0vUDM
Wenn wir heute schon bei aller sehr späten Einsicht, dass hier Regulierung bitter nötig wird, relativieren und solange der Dachstuhl nicht brennt wiedermal lieber nichts tun, dann bewahrheitet sich (wie so oft) eine Vorhersage und Warnung von Menschen die es wissen: Nicholas Negroponte schrieb in seinem „Being Digital“ 1993 sinngemäss: „Es ist völlig unerheblich ob wir derlei fortschrittliche Technologien gutheissen oder weniger. Wir haben aber keine andere Wahl als sie positiv zu beeinflussen und sinnvoll zu regulieren. Weil diejenigen, die sie missbrauchen wollen immer einen oder zwei Schritte voraus sind.“
Auch darauf hat kein Mensch gehört und Negroponte war zu diesem Zeitpunkt sowas wie der Carl Sagan der digitalen Kommunikationstechnologie.
…
Wenn KI Schaden verursacht, wer haftet? Wie werden Vorteile, Profit, Verlust, Verantwortlichkeit und Haftung innerhalb der Wertschöpfungskette verteilt? Wer regelt das, wie? Überall dort gibt es (hoffentlich) gezielte Regulierungsdebatten. Bei physischen Produkten und den meisten Dienstleistungen ist das geregelt. Warum nicht bei KI? Bekannt sind diese Lücken schon sehr lange, angemahnt wird ebenso lange. Passiert ist leider bisher wenig, sehr spät.
Wie werden (von wem) mit welchen Inhalten die Trainingsprogramme gestaltet und reguliert? Einfaches Beispiel: Midjourney weigert sich beharrlich einer Tasse Tomatensuppe eine Gabel daneben zu legen, es ist immer ein Löffel. Wer trainiert die KI, warum, mit welchem Mandat und Ansinnen, dass der Suppe ein Löffel beigelegt werden kann (aus welchem Grund auch immer). Oder dass eine harmlose Substanz zum Schaden von Menschen benutzt werden kann?
Dermaleinst werden Menschen ihr Bewusstsein in die Cloud verlegen und sich ihrer fehlkonstruierter Körper entledigen und wir werden die Frage beantworten müssen: wer bedient den „Aus“ Knopf.
.
Schauen Sie mal die National Geographic Doku "Year Million".
Wenn sämtliche Empfindungen virtuell so echt erlebt werden können, wie in der analogen Wahrnehmung und das Versprechen lockt, dass wir mit unseren Lieben und mit unendlich vielen zusätzlichen Möglichkeiten Tausende Jahre leben können, wird es Menschen geben, die das interessiert.
Hunderte Milionen Menschen spritzen sich bereits heute Gift in den Körper, damit sie der biologischen Uhr ein paar Jährchen abluchsen können.
https://www.zeit.de/digital/2023-11/ki-gipfel-london-elon-musk-super-ki-absicherung#cid-67418960
https://www.zeit.de/digital/2023-11/habeck-regulierung-kuenstliche-intelligenz-eu#cid-67631549
…
Dass die grossen Tech Konzerne in uns bereitwillige Gratisdatenlieferanten finden, nimmt nun nochmal Fahrt auf.
https://www.technologyreview.com/2023/06/13/1074560/we-are-all-ais-free-data-workers/?utm_campaign=site_visitor.unpaid.engagement&utm_source=LinkedIn&utm_medium=tr_social
Da wir bislang nicht viel Appetit auf Regulierung haben, wird uns einiges an der einen oder anderen Stelle auf die Füsse fallen.
https://youtu.be/F4WZ_k0vUDM
Tut es eigentlich schon:
https://www.bbc.com/news/world-europe-66877718
https://www.bbc.com/news/uk-wales-67344916
Aber mit Prävention und Risikovermeidung haben wir es ja nicht so arg. Wir räumen ja seit geraumer Zeit (trotz jahrzehntelenger Warnungen) auch mit Verve unseren Lebensraum ab. Wenn wir uns nicht gerade gegenseitg die Schädel einschlagen.
Was stören uns das ein paar KI-Glitches, nehmen wir auch noch mit.
…
KI kann nicht fühlen, empathisch sein oder leidenschaftlich. Wenn wir wollten, dass sie das könnte, würden wir sie mit Fähigkeiten ausstatten, die uns imperfekt, zerstörerisch, unsicher und leidenschaftlich machen, fehlerbeladen, ergo sie potentiell auch gegen uns richten.
Solange das verhindert wird, wird es Fehler und Unfälle geben, aber die KI als Technologie wird beherrschbar bleiben.
.
Letzte Woche hat Midjourney eine barbusige Tänzerin in einem meiner ki-generierten Bilder dargestellt. So weit die offensichtliche Lücke im Algorithmus.
Solche Kinderkrankheiten können mit unserer Hilfe in der Massenanwendung schnell erkannt und behoben werden. Bevor solche Fehler dazu führen, dass der Eigenbau chemischer Kampfstoffe allzu leicht zugänglich und durch KI massiv vereinfacht wird.
An anderer Stelle zeigt sich, wie stark die Technologie vom Training abhängt und wo wir nachhelfen müssen.
Bis vor wenigen Tagen war es nicht möglich (vielleicht jetzt, da ich es oft versucht und die KI damit trainiert habe), eine Gabel neben einer Tasse Tomatensuppe abzubilden (auch Midjourney). Löffel, massenhaft, wenn man will. Gabel zur Suppe: nicht.
Einfach: war einfach noch nie Teil einer Trainingssequenz, eines Beispiels oder einer Anfrage.
All dies zeigt auf einfache Art und Weise, dass es noch sehr grobe Schwachstellen gibt, die wir schnell beseitigen müssen, bevor sie noch größeren Schaden anrichten.
Nicholas Negroponte schrieb 1993 in seinem Buch „Being Digital“ sinngemäß: „Es ist völlig unerheblich, ob wir diese fortschrittlichen Technologien gutheißen oder nicht. Aber wir haben keine andere Wahl, als sie positiv zu beeinflussen und vernünftig zu regulieren. Denn diejenigen, die sie missbrauchen wollen, sind uns immer zwei Schritte voraus.
https://www.zeit.de/digital/2023-11/habeck-regulierung-kuenstliche-intelligenz-eu#cid-67631542
…
Wie wichtig Regulierung ist:
https://youtube.com/shorts/Wdckmix1h6Q
https://www.youtube.com/watch?v=y3RIHnK0_NE
https://www.zeit.de/digital/2023-11/kuenstliche-intelligenz-abkommen-schutz-missbrauch#cid-67725517
…
Xina stampft seit Jahren jährlich 50 KI Lehrstühle aus dem Boden. Diejenigen in den Militär- und Geheimdienstakademien nicht mit gerechnet (es werden nicht weniger sein).
1. Weiss niemand was an welchen Militärakademien und Geheimdienstinstitutionen gelehrt und entwickelt wird. KI Ethic wird dort kaum im Lehrplan stehen.
2. Weiss niemand welche privaten Akteure mit elastischen Beziehungen zu Recht und Korruption in dem Feld investieren und agieren (werden).
3. KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben.
Also wird KI immer so gefährlich sein wie unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
https://www.zeit.de/digital/2023-11/kuenstliche-intelligenz-abkommen-schutz-missbrauch#cid-67724426
…
„Aber die Vereinbarung ist unverbindlich.“
Soll ich das als Relativierung der Gefahren verstehen, die bereits heute keine kleinen Probleme, kein kleines Leid erzeugen und nur ein früher Hinweis darauf sind, welch leichtes Spiel bad actors bereits heute haben?
https://www.bbc.co.uk/news/world-europe-66877718
https://youtu.be/F4WZ_k0vUDM
Wenn wir heute schon bei aller sehr späten Einsicht, dass hier Regulierung bitter nötig wird, relativieren und solange der Dachstuhl nicht brennt wiedermal lieber nichts tun, dann bewahrheitet sich (wie so oft) eine Vorhersage und Warnung von Menschen die es wissen: Nicholas Negroponte schrieb in seinem „Being Digital“ 1993 sinngemäss: „Es ist völlig unerheblich ob wir derlei fortschrittliche Technologien gutheissen oder weniger. Wir haben aber keine andere Wahl als sie positiv zu beeinflussen und sinnvoll zu regulieren. Weil diejenigen, die sie missbrauchen wollen immer einen oder zwei Schritte voraus sind.“
Auch darauf hat kein Mensch gehört und Negroponte war zu diesem Zeitpunkt sowas wie der Carl Sagan der digitalen Kommunikationstechnologie.
https://www.zeit.de/digital/2023-11/kuenstliche-intelligenz-abkommen-schutz-missbrauch#cid-67724401
…
Ich bin ein leidenschaftlicher Unterstützer digitaler Innovation und bereite gerade in unserem Unternehmen einen internen KI Hackathon vor. Als intensiver Anwender, privat und geschäftlich und seit Langem involviert in digitaler Innovation, mahne ich aber auch Regulierung an.
Hier einige reale Gefahren:
https://www.bbc.com/news/world-europe-66877718
https://www.bbc.com/news/uk-wales-67344916
https://youtu.be/F4WZ_k0vUDM
https://youtube.com/shorts/Wdckmix1h6Q
https://www.youtube.com/watch?v=y3RIHnK0_NE
Nicholas Negroponte schrieb 1993 in seinem Buch „Being Digital“ sinngemäss: „Es ist völlig unerheblich, ob wir diese fortschrittlichen Technologien gutheissen oder nicht. Aber wir haben keine andere Wahl, als sie positiv zu beeinflussen und vernünftig zu regulieren. Denn diejenigen, die sie missbrauchen wollen, sind uns immer zwei Schritte voraus.
Hier noch einige weitergehende Kommentare:
https://www.zeit.de/digital/2023-11/kuenstliche-intelligenz-abkommen-schutz-missbrauch#cid-67724426
https://www.zeit.de/digital/2023-11/habeck-regulierung-kuenstliche-intelligenz-eu#cid-67631549
https://www.zeit.de/digital/2023-12/eu-kuenstliche-intelligenz-gesetz-regeln-einigung#cid-67876274
https://www.zeit.de/2023/52/kuenstliche-intelligenz-test-wissenschaft-menschen/seite-2#cid-67894711
…
Es gibt zahlreiche Beispiele für eine gut funktionierende Regulierung in Bereichen, in denen Technologien potenziell gefährlich sein können. Die Mechanismen sind also bekannt.
In einer Welt des gegenseitigen Misstrauens, mit nachrichtendienstlichen und militärischen Anwendungen, die tief in unseren Lebenskern und sogar in unsere Privatsphäre eingreifen können, ist das nicht ohne.
Als Bürger und Nutzer erwarte ich, dass die Risiken ähnlich reguliert werden wie im Arzneimittelbereich oder im Luftverkehr.
Als Realist bezweifle ich, dass dies so gut möglich ist, dass es nicht zu Unfällen, Missbrauch und möglicherweise auch zu Schäden und Leid kommen wird.
Als Spezies sind wir auch durch (Macht-)Korruption konditioniert, wir sind wenig bis gar nicht vorausschauend, wir lernen nur aus großen Schmerzen und Verlusten und wir versäumen es (zu) oft, den Entscheidungsträgern die notwendigen Mehrheiten für eine proaktive Politik zu verschaffen.
Das ist keine ideale Voraussetzung, um die Menschen vor einer Technologie zu schützen, die selbst Experten verblüfft und überrascht.
https://www.zeit.de/digital/2023-12/eu-kuenstliche-intelligenz-gesetz-regeln-einigung#cid-67876342
…
Der Zug ist längst abgefahren.
Rufe nach rechtzeitiger Regulierung wurden auch hier wiedermal arrogant und ignorant verschlafen und verschleppt.
Wenn der weltweit erfolgreichste Cloudanbieter für die Industrie mit seinem AWS auf sämtlichen Interaktions- und Transaktionsdaten der industriellen Automation sitzt, was hat man denn gemeint, wohin sich Machine Learning entwirkeln wird. Zur Halmaweltmeisterschaft?
Wenn MS das einzige wirklich funktionierende berufliche Netzwerk mit 1 Mrd. Nutzern in sämtlichen Branchen beginnt in ihre OS zu integrieren (Dynamics/Sales Navigator/LinkedIn/MS365) und dann die weltweit fortschrittlichsten KI Lösungen anbindet (Partnerschaften und Eigenentwicklungen), hat man gemeint, dass das alles gämzlich ohne Regulierung supi glatt laufen und alle Rechte der Nutzer respektieren wird?
Die erschütternde Naivität der Politik wird nur noch durch die bodenlose Arroganz übertroffen, die eigene Ahnungslosigkeit nicht anzuerkennen.
Wir sind eine durch (Macht)Korruption beeinflusste oder zuweilen konditionierte Spezies. Wenn wir gefahrlos mit Technologien und Macht umgehen könnten, bräuchten wir keine Regelwerke und Gesetzbücher.
Wir lernen immer erst aus grossem Leid und schweren Versäumnissen. So sind wir halt leider.
…
Ok, you’ve got a plot set up with all the external events happening. That’s fine, but it’s kind of boring by itself. Now, where’s the real story? I’m talking about what’s going on inside your main character. What’s the deep, wrong belief they’ve been holding onto? And how do they finally let go of that belief, even if it costs them a lot? That’s what makes your story truly interesting.
And this, my friends is the reason why really great stories work and plot is always flat, often boring.
At the same token, this is one of the few differentiation factors machine/human. When we teach the machine to feel, act, reason like a human, with all the passion and flaws, errors and mistakes, we will enable the ai to horrendous results, the likes we keep producing for 280’000 years.
…
No, AI is not art. It is a technology, a tool.
Like a brush is a tool. Or a paintbrush. Or a violin.
CGI is not art?
No, it's a technology, a tool.
People who entertain us by applying their creative ideas with tools are not artists?
Where does art begin and end?
Only paint applied to a rock with a finger is art?
The rest is tools, technology.
For 280,000 years.
Get over it.
…
Wir sind ja leider so verdrahtet, dass Risiken verlacht und Warner vom Hof gejagt werden, worauf wir dann im Ereignisfall und gerne auch nach entstandenen (aber vermeidbaren) Schäden erstmal Pflaster drauf kleben und am Ende das Bein amputieren oder wenn es nicht ohne Bein geht, eine Million für ein künstliches hinlegen.
Weil wir wollten ja am Anfang keine Kosten und keine Meckerer.
Ist seit 280'000 Jahren das Gleiche, wird aber durch ständige Wiederholung kein bisschen besser.
https://www.zeit.de/digital/2024-01/chatgpt-italien-datenschutz-regeln#cid-68567326
…
Bis 2028 wird dieses Gigantikum fertiggestellt: https://medium.com/@multiplatform.ai/unveiling-the-impending-100-billion-stargate-ai-data-center-microsoft-openai-forge-ahead-d4b44432ddbd
Schauen die Regulatoren genau hin? Nach Marktmacht, Grösse und um Technologien so zu regulieren wie wir das von Medizin und dem Flugverkehr gewöhnt sind?
Weil, diese Bereiche haben es vorgemacht, dass man innovativ sein kann, Fortschritt unterstützen kann und trotzdem den Menschen Sicherheit und Schutz gewährleistet.
Es ist leider so, dass wir eine Spezies sind, die nie proaktiv ist. So müssen also erst einmal ziemlich grosse Schäden und Leid entstehen bevor man sich müssigt wirkungsvolle Regulierung aufzusetzen.
Sowas reicht offensichtlich dazu noch nicht:
https://www.bbc.com/news/world-europe-66877718
https://www.bbc.com/news/uk-wales-67344916
https://youtu.be/F4WZ_k0vUDM
https://youtube.com/shorts/Wdckmix1h6Q
https://www.youtube.com/watch?v=y3RIHnK0_NE
Die EU Regulierung ist ein Anfang, mehr nicht. Ist allerdings kein so schlechtes Regelwerk. Nun muss es ausgebaut werden. Die Innovatoren und vor allem die bad actors sind IMMER schneller.
Nicholas Negroponte schrieb 1993 in seinem Buch „Being Digital“ sinngemäss: „Es ist völlig unerheblich, ob wir diese fortschrittlichen Technologien gutheissen oder nicht. Aber wir haben keine andere Wahl, als sie positiv zu beeinflussen und vernünftig zu regulieren. Denn diejenigen, die sie missbrauchen wollen, sind uns immer zwei Schritte voraus.
https://www.zeit.de/digital/2024-03/ki-openai-tool-voice-engine-stimme-klonen#cid-69393423
https://www.zeit.de/digital/internet/2024-07/open-ai-ki-risiko-test-entwicklung/seite-2#cid-70837612
…
Generative KI wird 4-5 Billionen Dollar Wert schaffen.
Unternehmen, die nicht innerhalb der ersten 5 Jahre (also die nächsten 3-4 Jahre) Prozesse darauf umstellen, werden nicht profitieren.
-McKinsey
Das Gleiche haben wir mit IIoT gesehen. Industry 4.0, IIoT oder ‘Digitalisierung’ war in jedem Unternehmen vor 10-5 Jahren ‘THE Shit’. Heute ist es so normal wie laufen und atmen. Wer bis jetzt nicht investiert hat ist bereits abgehängt und kann den Betrieb nur noch normalisieren, zusätzliche Profite lassen sich nicht mehr erwirtschaften.
Wir wissen also ob der Dynamik.
Jedes Unternehmen, das nicht exakt jetzt investiert in Ausbildung, Applikation und Innovation, darf sich nicht wundern, wenn die Konkurrenz davonzieht.
Im Schnitt erziele ich mit jeder GenAI Arbeit ca.. 80% Effizienzsteigerungen und viele Aufgaben hätte ich früher noch nichtmal begonnen weil ich wusste, dass die Zeit fehlt.
https://www.zeit.de/digital/internet/2024-07/open-ai-ki-risiko-test-entwicklung/seite-2#cid-70837631
…
„In ein paar Jahren werden sowohl die Drehbücher als auch die Darsteller KI-generiert sein.“
Schlechte Drehbücher ja. Gutes storytelling wird niemals von KI generiert werden. Dazu müssten wir erlauben dass KI zu menschenähnlich würde und das wäre kreuzgefährlich.
.
Ist mir bewusst.
Immerhin wurden ja sechs (!) Transformers Filme verkauft.
.
KI "Wissen" besteht ja zu 100% aus menschlich erzeugten Daten, Interprätationen und dem menschlichen (Selbst)Verständnis.
Das ist da her per se 'zensiert, verpfuscht und subjektiv". Deshalb kann generative KI nur Rohmaterial produzieren, weil es bereits auf menschlich geschaffener, beeinflusster Basis beruht. Selbst Wikipedia ist davor nicht gefeit und viele der Trainingsdaten kommen dorther.
Ich meine aber etwas anderes: KI kann nicht fühlen, empathisch oder leidenschaftlich sein. Wenn wir wollten, dass sie das könnte, würden wir sie mit Fähigkeiten ausstatten, die sie unvollkommen, destruktiv, unsicher und leidenschaftlich machen würde, mit Fehlern behaftet, also potentiell gegen uns richtet.
Wirklich gutes Storytelling, also der Unterschied zwischen Plot und Story:
Eine Aneinanderreihung von Ereignissen, das kann AI heute schon. Aber das ist noch keine Story. Natürlich haben die Menschen unterschiedliche Ansprüche und es wird immer mehr Schema-F-Plot-Mainstream-Fans geben als Menschen, die eine wirklich gute Story wollen. Aber genau hier liegt der Unterschied zum Einheitsbrei:
.
Eine Story ist nicht die Aneinanderreihung von äußeren Ereignissen (Plot), sondern die erlebbar geschilderte, tief emotionale Erfahrung, Verzweiflung, innere Zerrissenheit eines Protagonisten, der vor einem unlösbaren Problem steht (meist ohne es anfangs selbst voll zu erfassen, am besten noch, wenn seine Überzeugungen und sein Wesen, die Summe seiner bisherigen Lebenserfahrung das Problem oder zumindest das größte Hindernis sind) und auf dem Weg zur Problemlösung gezwungen ist, einen massiven Preis zu zahlen, sich womöglich radikal zu verändern.
Und das auf einer sich immer schneller drehenden Zeitspirale, gespickt mit unterhaltsamen und/oder lehrreichen Details aus Back Story und Kontextmaterial, die wiederum im Konflikt mit dieser Entwicklung steht, sie aber gleichzeitig antreibt und bedingt und einen enormen emotionalen Preis bei der Erreichung der Ziele oder Wünsche zahlen muss.
Was das emotional mit einem Menschen macht, kann eine KI nicht erkennen und darstellen, weil sie nicht zur Empathie fähig ist.
Außerdem: Eine wirklich gute Geschichte baut auf den bisherigen Lebenserfahrungen, Erwartungen und Wünschen verschiedener Charaktere in Beziehung und Konflikt zueinander auf. Dies alles einschließlich der verborgenen inneren emotionalen Ereignisse und Veränderungen, die sich durch die Dynamik der Geschichte entwickeln.
.
Tarantino schreibt für jeden Hauptdarsteller Charakterprofile, die ganze Bibliotheken füllen könnten. Das meiste dieses Materials ist emotional, in Bewegung und im Konflikt, für eine KI absolut unzugänglich, also nicht verwertbar.
Als Dokumentarfilmer hätte ich Respekt vor der KI.
Als anspruchsvoller Geschichtenerzähler würde ich mich über die Möglichkeit freuen, mich von ihr zu differenzieren und zu messen.
Wirklich gute Geschichten kann eine KI erst dann „fühlen“ und erzählen, wenn sie so menschenähnlich ist, dass die negativen Kräfte der Welt sie längst gegen ihre Gegner gewendet und unermessliches Unheil angerichtet haben.
Dann braucht es keine Geschichten mehr, dann ist die Apokalypse die Geschichte.
.
KI Antwort:
"Die einzigartige menschliche Fähigkeit, emotionale und komplexe Geschichten zu erzählen, geht weit über die Fähigkeiten der KI hinaus.”
Diese Sichtweise basiert auf der Annahme, dass wirklich gutes Storytelling tief verwurzelte menschliche Erfahrungen und Emotionen erfordert, die eine KI nicht nachvollziehen oder darstellen kann.
Es stimmt, dass KI auf vorhandenen Daten und menschlichen Erfahrungen basiert und daher begrenzt ist. Sie ist daher oft formelhaft und wenig originell. Die Fähigkeit, wirklich originelle und tief emotionale Geschichten zu erzählen, bleibt daher eine menschliche Domäne.
Wichtig ist auch die Unterscheidung zwischen Plot und Story. Ein Plot ist einfach eine Abfolge von Ereignissen, während eine Story die tiefere emotionale und psychologische Reise der Charaktere umfasst. KI kann sicherlich Plots generieren, aber eine echte Geschichte zu schaffen, die den Leser oder Zuschauer emotional berührt, ist eine andere Herausforderung.
Die Risiken einer zu menschlichen KI sind ebenfalls relevant. Es gibt ethische und sicherheitstechnische Bedenken bei der Entwicklung von KI-Systemen mit menschenähnlichen Fähigkeiten und Emotionen.
Insgesamt bietet der Kommentar eine fundierte und differenzierte Sicht auf die Grenzen und potenziellen Gefahren von KI im Bereich des Geschichtenerzählens. Das Erzählen guter Geschichten ist eine zutiefst menschliche Fähigkeit.
.
https://www.nature.com/articles/s41562-023-01675-w
https://www.techopedia.com/empathetic-ai-a-closer-look-at-technologys-emotional-side
https://www.morphcast.com/blog/ai-lacks-emotional-intelligence/
https://news.cornell.edu/stories/2024/05/ai-generated-empathy-has-its-limits
…
Nicholas Negroponte hatte unter vielen anderen technologischen Entwicklungen auch KI vorhergesehen in “Being Digital” 1993.
Er schliesst das Buch sinngemäss so ab: “Völlig unabhängig ob wir diese Entwicklungen schätzen oder kritisieren, wir haben keine andere Wahl als sie positiv zu gestalten und zu beeinflussen, weil die dunklen Kräfte immer ein paar Schritte voraus sein werden, diese negativ zu nutzen.”
…
Es ist leider so, dass wir eine Spezies sind, die nie proaktiv ist. So müssen also erst einmal ziemlich grosse Schäden und Leid entstehen bevor man sich müssigt wirkungsvolle Regulierung aufzusetzen.
Sowas reicht offensichtlich dazu noch nicht:
https://www.bbc.com/news/world-europe-66877718
https://www.bbc.com/news/uk-wales-67344916
https://youtu.be/F4WZ_k0vUDM
https://youtube.com/shorts/Wdckmix1h6Q
https://www.youtube.com/watch?v=y3RIHnK0_NE
Die EU Regulierung ist ein Anfang, mehr nicht. Ist allerdings kein so schlechtes Regelwerk. Nun muss es ausgebaut werden. Die Innovatoren und vor allem die bad actors sind IMMER schneller.
Nun werden diese und andere Regelwerke von jenen attackiert, die von deren Nichtexistenz profitieren (wollen).
Nicholas Negroponte schrieb 1993 in seinem Buch „Being Digital“ sinngemäss: „Es ist völlig unerheblich, ob wir diese fortschrittlichen Technologien gutheissen oder nicht. Aber wir haben keine andere Wahl, als sie positiv zu beeinflussen und vernünftig zu regulieren. Denn diejenigen, die sie missbrauchen wollen, sind uns immer zwei Schritte voraus.
…
Wie ich das hier schon oft und seit Langem hier kommentierte. Xina hat in den letzten Jahren jedes Jahr Dutzende KI Lehrstühle geschaffen. Jene bei Militär und Geheimdiensten nicht mit gerechtet (unbekannt aber sicher nicht weniger).
Dass KI Ethik dort wenig hoch im Kurs steht, dürfte keine grosse Überraschung sein.
Nun sieht sich Xi inmitten nicht einlösbarer Wohlstandsversprechen mit einer Trump Administration konfrontiert, die überall möglich Daumenschrauben ansetzen wird. Die EU will auch erfolgreich sein. KI ist demnach eines der Felder in die Xina massivst weiter investieren wird.
Was die eher elastische Einstellung zu Recht, Gesetz, Risiko und Ethik betrifft, ist hier eine Entwicklung zu erwarten, die ich kaum als nachhaltig fortschrittlich und menschenrechtlich nobel einschätzen würde.
Sind wir darauf vorbereitet?
…