Kommentare zum Theme Künstliche Intelligenz
AI
Xina schafft seit Jahren 50 Lehrstühle pro Jahr in AI, diejenigen in Militär- und Geheimdienstakademien nicht mitgerechnet (weil unbekannt).
AI Ethics wird dort in den Lehrplänen null Rolle spielen.
.
Dort wo OpenAI und Google - allerdings nur aufgrund massiver Intervention von Experten und Aktivisten - Produkte stoppen und einengen mussten, scheren sich Russen und Xinesen einen Dreck.
Wenn fake news Generatoren von der Leine gelassen und deep fake Farmen aktiviert sind, wird es zu spät sein.
Aber es ist schon einiges unaufhaltsam in den Graben gerauscht in der deutschen Digitalpolitik. Aus Unfähigkeit, Unlust und einem eklatanten Mangel an Verantwortlichkeit.
Der Schaden für Demokratie, Freiheit und Wirtschaft wird astronomisch sein.
Verdanken werden wir das wieder einmal kapital überforderten Politikern.
.
"Was schlagen Sie vor? KI als Virus einstufen? Verbieten?"
Das Gleiche das die Gesellschaft vor einer Unzahl an Risiken zu schützen versucht.
Im gesellschaftlichen und politischen Diskurs errungene und durch Expertenmeinung informierte Regulierung und Gesetzgebung wie wir sie beispielsweise von biologischen Kampfstoffen, pharmazeutischen Wirkstoffen und den Gefahren des Flugverkehrs kennen.
.
Zunächst ist Regulierung von solcher Tragweite immer ein marathonlaufendes Monster.
Gesetzgebung in den Ländern obliegt den Ländern selbst aber die EU ist ambitioniert Regulierung breiter und tiefer, international verbindlicher und nachhaltiger auf-, ein- und umzusetzen.
Wie bei GDPR geschehen. Vor Ewigkeiten mit ersten Konsultationen begonnen, nun nach vielen Jahren in den ersten Zügen aber noch in Kinderschuhen mit Zahnungsschmerzen.
AI Regulierung könnte einen ähnlichen Prozess durchlaufen und das dauert.
Erste Regelwerke gibt es: https://www.lawfareblog.com/…
Während sich das auf EU Ebene (weiter)entwickelt sind die Nationen immer noch für ihre Gesetzgebung und Rahmenbedingungen verantwortlich, die dann natürlich mit der EU und deren Regelwerk abgestimmt werden müssen.
Die nationale Gesetzgebung kann durchaus auch einen anderen Blickwinkel und Ansatz wählen. Als Ergänzung oder "Arbeitsteilung" der verschiedenen Regelwerke wäre das nicht unüblich und würde spezifischen Besonderheiten Raum und Flexibilität einräumen. Beispielsweise könnte Deutschland sind im Bereich Mobilität kümmern, die Franzosen um Militär, etc.
Die EU wählt einen systemischen Ansatz (siehe Link oben).
Wir kennen das von vielen Regularien: beispielsweise wird nicht AI als Konzept oder Produkt/Service reguliert sondern die systemischen Komponenten. Aus der Aviation und Life Science Regulierung kennen wir ähnliche Ansätze.
...auch dort in einem Zusammenspielt der nationalen und übergeordneten Behörden und Regelwerke. Beispielsweise FAA und nationale Aviation Regulierung oder FDA, EMA und die nationalen Behörden.
.
"Von daher verfolge ich eher einen Ansatz der früher Ansetzt."
Natürlich wäre das ideal!
Aber Gleichzeitig denkt man, dass Russland ohne weiteres Deutschland und die ganze NATO vernichten könne, obwohl die NATO alle NATO-Waffen hat.
…
Habe ich hier immer mal wieder und seit langer Zeit erwähnt und bin meistens ausgelacht worden: Xina hat in den letzten Jahren jedes Jahr ca. 50 KI Lehrstühle geschaffen. Diejenigen an den Militärakademien, Intelligence Agenturen und Geheimdiensten nicht mit gerechnet (weil unbekannt).
KI Ethik wird in dem Lehrplänen dort keine Rolle spielen.
Hat das irgendjemand auf dem Radar?
PRIVACY, SECURITY AND THE RISE OF 'DEEPFAKES'
AI BIAS AND WIDENING SOCIOECONOMIC INEQUALITY
AUTONOMOUS WEAPONS AND A POTENTIAL AI ARMS RACE
STOCK MARKET INSTABILITY CAUSED BY ALGORITHMIC HIGH FREQUENCY TRADING
Wir sind kapital unfähig und unwillig unseren Lebensraum zu schützen und wir sind kolossal überfordert mit diesen Gefahren und Risiken.
Das wird nichts mehr hier.
…
„Gleichzeitig glauben Menschen, dass Computer neutral und unbestechlich sein können – was das Ganze noch problematischer macht.“
Das ist hochgradig naiv.
KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben.
Also wird KI immer so gefährlich sein wir unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
…
Warum nimmt die Öffentlichkeit (und leider auch viele Journalisten) solche Fragen immer erst wahr und ernst wenn es schon viel zu spät ist? Diese Fragen stellen wir seit sehr sehr langer Zeit. Interessiert hat das bislang niemanden:
Wenn KI Schaden verursacht, wer haftet? Wie werden Vorteile, Profit, Verlust, Verantwortlichkeit und Haftung innerhalb der Wertschöpfungskette verteilt? Wer regelt das, wie? Alles völlig ungeklärt. Bei physischen Produkten und den meisten Dienstleistungen ist das geregelt. Warum nicht bei KI?
Lustig werden die QLeerdenker wenn sie dann gleich mal anfangen LÜGEN KI durch die Gassen zu brüllen.
https://www.zeit.de/politik/2023-04/ki-chatgpt-nutzung-gefahr-nachrichtenpodcast#cid-64980466
…
Wie werden (von wem) mit welchen Inhalten die Trainingsprogramme gestaltet und reguliert? Wir scheitern bereits in dieser frühen Phase der künstlichen Intelligenz. Dermaleinst werden Menschen ihr Bewusstsein in die Cloud verlegen und sich ihrer fehlkonstruierter Körper entledigen und wir werden die Frage beantworten müssen: wer bedient den „Aus“ Knopf.
Und: Warum nimmt die Öffentlichkeit (und leider auch viele Journalisten) solche Fragen immer erst wahr und ernst wenn es schon viel zu spät ist? Diese Fragen stellen wir seit sehr sehr langer Zeit. Interessiert hat das bislang niemanden.
Wenn KI Schaden verursacht, wer haftet? Wie werden Vorteile, Profit, Verlust, Verantwortlichkeit und Haftung innerhalb der Wertschöpfungskette verteilt? Wer regelt das, wie? Alles völlig ungeklärt. Bei physischen Produkten und den meisten Dienstleistungen ist das geregelt. Warum nicht bei KI?Lustig werden die QLeerdenker wenn sie dann gleich mal anfangen LÜGEN KI durch die Gassen zu brüllen.
https://www.zeit.de/digital/2023-04/eu-abgeordnete-ki-regulierung#cid-65195433
…
Das ist nicht falsch aber da wir leider fast ausschliesslich Wachstum und Profit belohnen und so gut wie nie Risikovermeidung, muss man sich um die positiven Auswirkungen nicht sorgen, die sind bei neuen Technologien meist zuerst da. Weil es auch nur für positive Ideen Investitionen und das Herzblut der Forscher und Entwickler gibt.
Dann kommt der Bruch während der Applikation. Dort müsste begonnen werden zu regulieren bevor es zu Missbrauch kommt. Aber das haben wir seit 280‘000 Jahren noch nicht so doll drauf.
Dabei ist das bekannt. Vor allem auch bei digitalen Technologien.
Nicholas Negroponte schrieb in seinem „Being Digital“ 1993 sinngemäss: „Es ist völlig unerheblich ob wir derlei fortschrittliche Technologien gutheissen oder weniger. Wir haben aber keine andere Wahl als sie positiv zu beeinflussen und sinnvoll zu regulieren. Weil diejenigen, die sie missbrauchen wollen immer einen oder zwei Schritte voraus sind.“
Auch darauf hat kein Mensch gehört und Negroponte war zu diesem Zeitpunkt sowas wie der Carl Sagan der digitalen Kommunikationstechnologie.
…
Generative Künstliche Intelligenz.
Matthias Hornschuh von der Initiative Urheberrecht über einige der erschreckenden regulatorischen Lücken.
0:19min-5:50min.
https://www.deutschlandfunk.de/kultur-heute-19-04-2023-komplette-sendung-dlf-e782f023-100.html
…
Wenn KI Schaden verursacht, wer haftet? Wie werden Vorteile, Profit, Verlust, Verantwortlichkeit und Haftung innerhalb der Wertschöpfungskette verteilt? Wer regelt das, wie? Alles völlig ungeklärt. Bei physischen Produkten und den meisten Dienstleistungen ist das geregelt. Warum nicht bei KI? Bekannt sind diese Lücken schon sehr lange, angemahnt wird ebenso lange. Passiert ist nichts.
Wie werden (von wem) mit welchen Inhalten die Trainingsprogramme gestaltet und reguliert? Wir scheitern bereits in dieser frühen Phase der künstlichen Intelligenz. Dermaleinst werden Menschen ihr Bewusstsein in die Cloud verlegen und sich ihrer fehlkonstruierter Körper entledigen und wir werden die Frage beantworten müssen: wer bedient den „Aus“ Knopf.
https://www.zeit.de/politik/ausland/2023-05/kamala-harris-ki-google-microsoft-openai#cid-65266191
https://www.zeit.de/digital/2023-05/eu-usa-kuenstliche-intelligenz-verhaltenskodex#cid-65540942
…
KI kann kein storytelling und wird es nie können.
KI kann nicht fühlen, empathisch sein oder leidenschaftlich. Wenn wir wollten, dass sie das könnte, würden wir sie gegen uns richten.
Aber: ich schrieb und meinte richtig gutes storytelling. Also der Unterschied zwischen plot und story.
Eine Aneinanderreihung von events, das kann KI heute schon. Das ist aber noch keine story nach meinem Anspruch. Natürlich haben Menschen verschiedene Ansprüche und es wird immer mehr Schema F plot mainstream fans geben als Menschen, die wirkliche story verlangen. Genau da wird aber aus dem Einheitsmatsch der Unterschied möglich.
Eine story ist nicht die Aneinanderreihung von externen events (plot) sondern die erlebbar geschilderte tief emotionale Erfahrung, Verzweiflung, innere Zerrüttung eines Protagonisten die/der vor einem unlösbaren Problem steht (gerne ohne es selbst zu erfassen, noch lieber wenn seine Überzeugung und sein Wesen, die Summe der bisherigen Lebenserfahrung das Problem oder zumindest das grösste Hindernis sind) und auf dem Weg der Problemlösung dazu gezwungen wird sich radikal zu ändern. Und das auf einer Zeitspirale die sich zunehmend schneller dreht, gespickt mit unterhaltsamen und/oder lehrreichen Details aus back story und Kontextmaterial, die wiederum im Konflikt mit dieser Evolution steht, sie aber gleichzeitig antreibt und bedingt und in der Erreichung der Ziele oder Wünsche einen enormen emotionalen Preis zahlen muss.
Was das emotional mit einem Menschen macht ist von einer KI unmöglich zu ermitteln und darzustellen weil sie nicht zur Empathie fähig ist.
https://www.zeit.de/arbeit/2023-05/arbeitsmarkt-umwaelzung-zunkunft-jobs#cid-65235247
.
Zudem: eine richtig gute story baut die bisherige Lebenserfahrung, Erwartungen und Wünsche verschiedener Charaktere im Verhältnis und Konflikt zueinander auf. Alles inklusive verborgener innerer emotionaler Geschehnisse und Veränderungen die sich durch die story Dynamik entwickeln.
Tarantino schreibt Charakterprofile für jeden Hauptakteur die ganze Bibliotheken füllen könnten. Das meiste an diesem Material ist emotional, in Bewegung und im Konflikt, für eine KI absolut nicht zugänglich, also nicht verwertbar.
Als Dokumentarfilmer hätte ich Respekt vor KI.
Als anspruchsvoller storyteller würde ich mich freuen über das Potential mich unterscheiden und messen zu können.
Wirklich gute stories können von einer KI erst dann „empfunden“ und erzählt werden, wenn sie so menschenähnlich ist, dass die negativen Kräfte auf der Welt sie längst gegen ihre Gegner gerichtet und unermessliches Unheil angerichtet haben.
Dann braucht es keine stories mehr, dann ist die Apokalypse die story.
…
Das ist bei Weitem nicht die erste Warnung aber sie wird wieder verhallen, diffamiert werden und lächerlich gemacht. Genauso wie bis vor kurzen noch von Klimahysterie zu lesen war, was sich bei nicht wenigen Menschen zur Öko-Diktatur gewandelt hat und immer noch nicht ernstgenommen wird.
Wir sind keine proaktive Spezies. Leider wachsen uns die selbst geschaffenen Gefahren über den Kopf und niemand gibt die eigene Überforderung zu.
Sollte KI dermaleinst (was bei dieser rasanten Entwicklung sehr schnell gehe kann) uns als Zerstörer des Lebensraums ausmacht (was wir sind) und wir keine komplette Kontrolle und Beherrschung über diese und nachfolgende Technologien haben, ist es vorstellbar, dass eine KI Schlüsse zieht, die Zerstörer in die Schranken zu weisen oder zu eliminieren.
Ich weiss, ich bin hier und in anderen Foren seit Jahren immer wieder angegiftet und ausgelacht worden wegen solcher Aussagen. Auch wegen dieser: China schafft seit Jahren jedes Jahr 50+ KI Lehrstühle. Die an den Militär- und Geheimdienstakademien nicht mitgezählt. KI Ethik wird dort keine Rolle spielen. Aus der Politik hört man davon ein fettes Nichts. Komplette Ahnungslosigkeit.
Nicholas Negroponte schrieb in seinem „Being Digital“ 1993 sinngemäss: „Es ist völlig unerheblich ob wir derlei fortschrittliche Technologien gutheissen oder weniger. Wir haben aber keine andere Wahl als sie positiv zu beeinflussen und sinnvoll zu regulieren. Weil diejenigen, die sie missbrauchen wollen, stets 2 Schritte voraus sind
https://www.zeit.de/digital/2023-05/ki-stellungnahme-risiken-chatgpt#cid-65529888
…
“Freiwillig“
Das ist hochgradig naiv.
1. Weiss niemand was an welchen Militärakademien und Geheimdienstinstitutionen gelehrt und entwickelt wird. KI Ethic wird dort kaum im Lehrplan stehen.
2. Weiss niemand welche privaten Akteure mit elastischen Beziehungen zu Recht und Korruption in dem Feld investieren und agieren (werden).
3. KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben. Also wird KI immer so gefährlich sein wir unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
Das Ding ist gelaufen. Wenn KI „begreift“ wer hier der grösste Schädling ist und Möglichkeiten findet zu handeln: Game over.
https://www.zeit.de/digital/2023-05/eu-usa-kuenstliche-intelligenz-verhaltenskodex#cid-65541011
…
"Wie das ablaufen könnte, dass Maschinen den Menschen zu Leibe rücken, bleibt dabei vage. Altman selbst spricht davon, dass etwa biologische Waffen dank KI einfacher hergestellt werden könnten. Dafür bräuchte es immerhin noch Menschen, die diese Waffen verwenden wollen."
Angenommen, es wird verpasst der KI Grenzen in Interpretation und Handlungsspielräumen zu setzen.
Wenn die KI zum Schluss kommt, dass die Wurzel allen Übels der Mensch ist, reicht ein kleiner Fehler um diesem schädlichen Tun etwas entgegenzustellen.
In einer Welt wo ständig Cyberattacken passieren, Datenschutzregeln gebrochen werden und haarsträubende Fehler passieren, Regulierung auf kapital überforderte oder ignorante Politiker wartet und wo Menschen sich nach dem Hinweis, dass die eben entnommene Zigarette auf jeden Fall tödlich sein wird, sich die nächste Schachtel kaufen, woher nehmen wir die naive Zuversicht, dass das schon alles irgendwie klappen wird und dass wir jederzeit ein ausreichendes Mass an Kontrolle über uns und die Technologie haben werden?
https://www.zeit.de/digital/2023-06/ki-regulierung-eu-open-ai-lobbyismus#cid-65806589
…
"Es ist einfach – und vielleicht sogar richtig"
Vielleicht?
PRIVACY, SECURITY AND THE RISE OF 'DEEPFAKES' AI BIAS AND WIDENING SOCIOECONOMIC INEQUALITY AUTONOMOUS WEAPONS AND A POTENTIAL AI ARMS RACE STOCK MARKET INSTABILITY CAUSED BY ALGORITHMIC HIGH FREQUENCY TRADING - soll ich weitermachen?
https://www.zeit.de/digital/2023-06/ki-regulierung-eu-open-ai-lobbyismus/seite-2#cid-65806623
…
Weichspülargumente sind mMn hochgradig naiv.
1. Weiss niemand was an welchen Militärakademien und Geheimdienstinstitutionen gelehrt und entwickelt wird. KI Ethic wird dort kaum im Lehrplan stehen.
2. Weiss niemand welche privaten Akteure mit elastischen Beziehungen zu Recht und Korruption in dem Feld investieren und agieren (werden).
3. KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben.
Also wird KI immer so gefährlich sein wir unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
Das Ding ist gelaufen.
Wenn KI „begreift“ wer hier der grösste Schädling ist und Möglichkeiten findet zu handeln: Game over.
https://www.zeit.de/digital/2023-06/ki-regulierung-eu-open-ai-lobbyismus/seite-2#cid-65806643
…
Our design flaw is that we are, by and large, a (power)corrupt species.
What if AI defined itself as enlightened by removing the most corrupt and destructive being from the environment?
In the end, it could just be mathematics or simple logic: Balancing of interests, weighing of goods.
Where does the audacity come from to believe that our inherent corruption would give way to a sudden victory of reason and that we would henceforth use AI without exception for the progress and benefit of humanity?
And where does the naive confidence come from that we can master this technology flawlessly, while we are confronted daily with digital disasters, attacks and crashes of every magnitude?
Of course we have to try everything in our power to influence technology positively because those who follow their corrupt impulses are always two steps ahead (Nicholas Negroponte "Being Digital" 1993).
However, as we become more challenged and overburdened, our willingness to act naively and in good faith should also diminish.
And this should start with distinct and enforced rules and regulations to prevent ai to become conscious in the first place.
…
Haben Appelle gereicht die Gefahren für Demokratie und für den gesellschaftlichen Zusammenhalt durch Social Media auszuschliessen?
Haben Appelle gereicht um Arzneimittel nach Arzneimittelskandalen, Fleischkonsum nach Gammelfleisch und Flugreisen nach Flugzeugabstürzen sicher zu machen?
Wenn Appelle reichen, warum ersetzen wir dann nicht Gesetzbücher und Regulierung durch Handbücher?
KI hat enormes Potential, auch negatives. Warum gehen wir derart naiv damit um?
Nicholas Negroponte hatte in seinem Buch ‚Being Digital‘ bereits Anfang 90er darauf hingewiesen, sinngemäss: „Egal ob wir Digitalisierung mögen oder unterstützen, diejenigen die sie negativ ausnutzen wollen, sind bereits dabei das zu tun und sie werden uns immer ein paar Schritte voraus sein. Wir haben also gar keine andere Chance als sie positiv zu beeinflussen.“
Und dazu gehört anzuerkennen, dass das naive Huldigen der imaginären Eigenverantwortung fahrlässig bis katastrophal sein wird.
Ich bin begeisterter Nutzer von KI Lösungen und generiere Unmengen hilfreichen gedanklichen und konzeptionellen Rohmaterials damit.
Ich möchte aber bitte eine sichere Umgebung dazu und dabei verlasse ich mich nicht gerne auf Hoffnung und Glück.
Abgesehen davon, dass ich bitte Urheberschutz geklärt haben möchte und was passiert wenn durch KI Schäden entstehen, wer wo in der Wertschöpfungskette verdient, Verantwortung trägt und wer was wie kontrolliert.
Kurz: ich möchte KI so vertrauen können wie wir Arznei vertrauen können.
https://www.zeit.de/digital/2023-10/ki-gesetz-eu-chatgpt-4-regulierung#cid-67134854
…
Weltklasse Dronenpiloten sind gerade von einer KI Drone geschlagen worden: https://www.srf.ch/news/schweiz/meilenstein-in-der-robotik-autonome-ki-drohne-swift-besiegt-erstmals-den-menschen
Nun müsste die KI nur noch erkennen, dass wir erstens so dämlich sind den Lebensraum nachhaltig zu zerstören und zweitens nicht in der Lage sie zu bezwingen.
Game over.
https://www.zeit.de/digital/2023-10/ki-gesetz-eu-chatgpt-4-regulierung#cid-67134748
…
Weichspülargumente sind mMn hochgradig naiv.
Xina stampft seit Jahren jährlich 50 KI Lehrstühle aus dem Boden. Diejenigen in den Militär- und Geheimdienstakademien nicht mit gerechtnet (wes werden nicht weniger sein).
1. Weiss niemand was an welchen Militärakademien und Geheimdienstinstitutionen gelehrt und entwickelt wird. KI Ethic wird dort kaum im Lehrplan stehen.
2. Weiss niemand welche privaten Akteure mit elastischen Beziehungen zu Recht und Korruption in dem Feld investieren und agieren (werden).
3. KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben.
Also wird KI immer so gefährlich sein wie unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
Panic over?
https://www.zeit.de/digital/2023-10/ki-gesetz-eu-chatgpt-4-regulierung#cid-67134911
…
Bringen wir die Aufmerksamkeit und Sorgfalt mit als Menschen, selbst als Eltern, die potenten Chancen zu nutzen und die Risiken zu minimieren? https://youtu.be/F4WZ_k0vUDM?feature=shared
https://www.zeit.de/digital/2023-10/ki-gesetz-eu-chatgpt-4-regulierung#cid-67145866
…
Weil hier immer wieder die KI ins Spiel gebracht wird:
KI kann nicht fühlen, empathisch sein oder leidenschaftlich. Wenn wir wollten, dass sie das könnte, würden wir sie mit Fähigkeiten ausstatten, die uns imperfekt, zerstörerisch, unsicher und leidenschaftlich machen, fehlerbeladen, ergo sie potentiell auch gegen uns richten.
Richtig gutes storytelling, also Unterschied zwischen plot und story:
Eine Aneinanderreihung von events, das kann KI heute schon. Das ist aber noch keine story. Natürlich haben Menschen verschiedene Ansprüche und es wird immer mehr Schema F plot mainstream fans geben (es gibt ja Gründe warum es ganze 6! Transformers Filme gibt) als Menschen, die wirkliche gute story verlangen. Genau da wird aber aus dem Einheitsmatsch der Unterschied möglich:
Eine story ist nicht die Aneinanderreihung von externen events (plot) sondern die erlebbar geschilderte tief emotionale Erfahrung, Verzweiflung, innere Zerrüttung eines Protagonisten die/der vor einem unlösbaren Problem steht (meistens ohne es zu Beginn voll selbst zu erfassen, noch lieber wenn seine Überzeugung und sein Wesen, die Summe der bisherigen Lebenserfahrung das Problem oder zumindest das grösste Hindernis sind) und auf dem Weg der Problemlösung dazu gezwungen wird einen massiven Preis zu zahlen, sich ggf. radikal zu ändern.
Teil 2:
Und das auf einer Zeitspirale die sich zunehmend schneller dreht, gespickt mit unterhaltsamen und/oder lehrreichen Details aus back story und Kontextmaterial, die wiederum im Konflikt mit dieser Evolution steht, sie aber gleichzeitig antreibt und bedingt und in der Erreichung der Ziele oder Wünsche einen enormen emotionalen Preis zahlen muss.
Was das emotional mit einem Menschen macht ist von einer KI unmöglich zu ermitteln und darzustellen weil sie nicht zur Empathie fähig ist.
Zudem: eine richtig gute story baut die bisherige Lebenserfahrung, Erwartungen und Wünsche verschiedener Charaktere im Verhältnis und Konflikt zueinander auf. Alles inklusive verborgener innerer emotionaler Geschehnisse und Veränderungen die sich durch die story Dynamik entwickeln.
Tarantino schreibt Charakterprofile für jeden Hauptakteur die ganze Bibliotheken füllen könnten. Das meiste an diesem Material ist emotional, in Bewegung und im Konflikt, für eine KI absolut nicht zugänglich, also nicht verwertbar.
Als Dokumentarfilmer hätte ich Respekt vor KI.
Als anspruchsvoller storyteller würde ich mich freuen über das Potential mich unterscheiden und messen zu können.
Wirklich gute stories können von einer KI erst dann „empfunden“ und erzählt werden, wenn sie so menschenähnlich ist, dass die negativen Kräfte auf der Welt sie längst gegen ihre Gegner gerichtet und unermessliches Unheil angerichtet haben.
Dann braucht es keine Stories mehr, dann ist die Apokalypse die Story.
https://www.zeit.de/2023/43/hollywood-streik-ende-einigung-drehbuchautoren-ki#cid-67202453
…
Soll ich den Artikel als Relativierung der Gefahren verstehen, die bereits heute keine kleinen Probleme, kein kleines Leid erzeugen und nur ein früher Hinweis darauf sind, welch leichtes Spiel bad actors bereits heute haben?
https://www.bbc.co.uk/news/world-europe-66877718
https://youtu.be/F4WZ_k0vUDM
Wenn wir heute schon bei aller sehr späten Einsicht, dass hier Regulierung bitter nötig wird, relativieren und solange der Dachstuhl nicht brennt wiedermal lieber nichts tun, dann bewahrheitet sich (wie so oft) eine Vorhersage und Warnung von Menschen die es wissen: Nicholas Negroponte schrieb in seinem „Being Digital“ 1993 sinngemäss: „Es ist völlig unerheblich ob wir derlei fortschrittliche Technologien gutheissen oder weniger. Wir haben aber keine andere Wahl als sie positiv zu beeinflussen und sinnvoll zu regulieren. Weil diejenigen, die sie missbrauchen wollen immer einen oder zwei Schritte voraus sind.“
Auch darauf hat kein Mensch gehört und Negroponte war zu diesem Zeitpunkt sowas wie der Carl Sagan der digitalen Kommunikationstechnologie.
…
Wenn KI Schaden verursacht, wer haftet? Wie werden Vorteile, Profit, Verlust, Verantwortlichkeit und Haftung innerhalb der Wertschöpfungskette verteilt? Wer regelt das, wie? Überall dort gibt es (hoffentlich) gezielte Regulierungsdebatten. Bei physischen Produkten und den meisten Dienstleistungen ist das geregelt. Warum nicht bei KI? Bekannt sind diese Lücken schon sehr lange, angemahnt wird ebenso lange. Passiert ist leider bisher wenig, sehr spät.
Wie werden (von wem) mit welchen Inhalten die Trainingsprogramme gestaltet und reguliert? Einfaches Beispiel: Midjourney weigert sich beharrlich einer Tasse Tomatensuppe eine Gabel daneben zu legen, es ist immer ein Löffel. Wer trainiert die KI, warum, mit welchem Mandat und Ansinnen, dass der Suppe ein Löffel beigelegt werden kann (aus welchem Grund auch immer). Oder dass eine harmlose Substanz zum Schaden von Menschen benutzt werden kann?
Dermaleinst werden Menschen ihr Bewusstsein in die Cloud verlegen und sich ihrer fehlkonstruierter Körper entledigen und wir werden die Frage beantworten müssen: wer bedient den „Aus“ Knopf.
.
Schauen Sie mal die National Geographic Doku "Year Million".
Wenn sämtliche Empfindungen virtuell so echt erlebt werden können, wie in der analogen Wahrnehmung und das Versprechen lockt, dass wir mit unseren Lieben und mit unendlich vielen zusätzlichen Möglichkeiten Tausende Jahre leben können, wird es Menschen geben, die das interessiert.
Hunderte Milionen Menschen spritzen sich bereits heute Gift in den Körper, damit sie der biologischen Uhr ein paar Jährchen abluchsen können.
https://www.zeit.de/digital/2023-11/ki-gipfel-london-elon-musk-super-ki-absicherung#cid-67418960
https://www.zeit.de/digital/2023-11/habeck-regulierung-kuenstliche-intelligenz-eu#cid-67631549
…
Dass die grossen Tech Konzerne in uns bereitwillige Gratisdatenlieferanten finden, nimmt nun nochmal Fahrt auf.
https://www.technologyreview.com/2023/06/13/1074560/we-are-all-ais-free-data-workers/?utm_campaign=site_visitor.unpaid.engagement&utm_source=LinkedIn&utm_medium=tr_social
Da wir bislang nicht viel Appetit auf Regulierung haben, wird uns einiges an der einen oder anderen Stelle auf die Füsse fallen.
https://youtu.be/F4WZ_k0vUDM
Tut es eigentlich schon:
https://www.bbc.com/news/world-europe-66877718
https://www.bbc.com/news/uk-wales-67344916
Aber mit Prävention und Risikovermeidung haben wir es ja nicht so arg. Wir räumen ja seit geraumer Zeit (trotz jahrzehntelenger Warnungen) auch mit Verve unseren Lebensraum ab. Wenn wir uns nicht gerade gegenseitg die Schädel einschlagen.
Was stören uns das ein paar KI-Glitches, nehmen wir auch noch mit.
…
KI kann nicht fühlen, empathisch sein oder leidenschaftlich. Wenn wir wollten, dass sie das könnte, würden wir sie mit Fähigkeiten ausstatten, die uns imperfekt, zerstörerisch, unsicher und leidenschaftlich machen, fehlerbeladen, ergo sie potentiell auch gegen uns richten.
Solange das verhindert wird, wird es Fehler und Unfälle geben, aber die KI als Technologie wird beherrschbar bleiben.
.
Letzte Woche hat Midjourney eine barbusige Tänzerin in einem meiner ki-generierten Bilder dargestellt. So weit die offensichtliche Lücke im Algorithmus.
Solche Kinderkrankheiten können mit unserer Hilfe in der Massenanwendung schnell erkannt und behoben werden. Bevor solche Fehler dazu führen, dass der Eigenbau chemischer Kampfstoffe allzu leicht zugänglich und durch KI massiv vereinfacht wird.
An anderer Stelle zeigt sich, wie stark die Technologie vom Training abhängt und wo wir nachhelfen müssen.
Bis vor wenigen Tagen war es nicht möglich (vielleicht jetzt, da ich es oft versucht und die KI damit trainiert habe), eine Gabel neben einer Tasse Tomatensuppe abzubilden (auch Midjourney). Löffel, massenhaft, wenn man will. Gabel zur Suppe: nicht.
Einfach: war einfach noch nie Teil einer Trainingssequenz, eines Beispiels oder einer Anfrage.
All dies zeigt auf einfache Art und Weise, dass es noch sehr grobe Schwachstellen gibt, die wir schnell beseitigen müssen, bevor sie noch größeren Schaden anrichten.
Nicholas Negroponte schrieb 1993 in seinem Buch „Being Digital“ sinngemäß: „Es ist völlig unerheblich, ob wir diese fortschrittlichen Technologien gutheißen oder nicht. Aber wir haben keine andere Wahl, als sie positiv zu beeinflussen und vernünftig zu regulieren. Denn diejenigen, die sie missbrauchen wollen, sind uns immer zwei Schritte voraus.
https://www.zeit.de/digital/2023-11/habeck-regulierung-kuenstliche-intelligenz-eu#cid-67631542
…
Wie wichtig Regulierung ist:
https://youtube.com/shorts/Wdckmix1h6Q
https://www.youtube.com/watch?v=y3RIHnK0_NE
https://www.zeit.de/digital/2023-11/kuenstliche-intelligenz-abkommen-schutz-missbrauch#cid-67725517
…
Xina stampft seit Jahren jährlich 50 KI Lehrstühle aus dem Boden. Diejenigen in den Militär- und Geheimdienstakademien nicht mit gerechnet (es werden nicht weniger sein).
1. Weiss niemand was an welchen Militärakademien und Geheimdienstinstitutionen gelehrt und entwickelt wird. KI Ethic wird dort kaum im Lehrplan stehen.
2. Weiss niemand welche privaten Akteure mit elastischen Beziehungen zu Recht und Korruption in dem Feld investieren und agieren (werden).
3. KI wird vom korruptesten Säugetier der Welt gefüttert und beeinflusst. KI die sich der Einflussnahme, Steuerung und Regulierung des Menschen entziehen würde, darf es nicht geben.
Also wird KI immer so gefährlich sein wie unsere Spezies selbst und die räumt gerade mit Verve den eigenen Lebensraum ab, wenn sie nicht gerade Mitglieder der eigenen Spezies jagt und abschlachtet.
https://www.zeit.de/digital/2023-11/kuenstliche-intelligenz-abkommen-schutz-missbrauch#cid-67724426
…
„Aber die Vereinbarung ist unverbindlich.“
Soll ich das als Relativierung der Gefahren verstehen, die bereits heute keine kleinen Probleme, kein kleines Leid erzeugen und nur ein früher Hinweis darauf sind, welch leichtes Spiel bad actors bereits heute haben?
https://www.bbc.co.uk/news/world-europe-66877718
https://youtu.be/F4WZ_k0vUDM
Wenn wir heute schon bei aller sehr späten Einsicht, dass hier Regulierung bitter nötig wird, relativieren und solange der Dachstuhl nicht brennt wiedermal lieber nichts tun, dann bewahrheitet sich (wie so oft) eine Vorhersage und Warnung von Menschen die es wissen: Nicholas Negroponte schrieb in seinem „Being Digital“ 1993 sinngemäss: „Es ist völlig unerheblich ob wir derlei fortschrittliche Technologien gutheissen oder weniger. Wir haben aber keine andere Wahl als sie positiv zu beeinflussen und sinnvoll zu regulieren. Weil diejenigen, die sie missbrauchen wollen immer einen oder zwei Schritte voraus sind.“
Auch darauf hat kein Mensch gehört und Negroponte war zu diesem Zeitpunkt sowas wie der Carl Sagan der digitalen Kommunikationstechnologie.
https://www.zeit.de/digital/2023-11/kuenstliche-intelligenz-abkommen-schutz-missbrauch#cid-67724401
…