Aller guten Dinge sind 3 – zumindest bei Jean-Phillippe Hagmann. Nach dem Innovationstheater und dem Meta-Modell für agile Innovation jetzt Luther für Innovatoren. Aber eigentlich ist es diesmal kein Buch zum Lesen, sondern eher zum Stöbern. Viel Kurzstrecke, keine Langstrecke. Ein Format mit vielen Thesen zum Nachdenken, auch wenn die Luther Analogie etwas überstrapaziert wird (die Luther-Zitate haben mich jetzt weniger angesprochen).
Weniger große Botschaft als viele Denkanstöße. Und es würde mich nicht wundern, wenn ich immer wieder zu diesem Buch zurückkehren werde (was mir sonst eher selten passiert).
Jeder These folgen 1-2 Seiten zur Erläuterung, Thesen wie:
Erfolgreiche Innovationen sind niemals neu. Denn das wirklich Neue findet niemals breite Akzeptanz.
Die Idee wird konstant überbewertet. Doch die Idee ist nichts ohne Innovation.
Innovation ist für viele Unternehmen wichtig, muss aber meist warten, weil sie nicht dringend ist.
Der Fokus auf die Machbarkeit einer neuen Idee wird von Innovationsteams systematisch überbewertet.
…
Und davon mindestens 95 Stück. Natürlich finden sich Schlagworte wie Serendepität, Künstliche Intelligenz, aber auch Negativraum.
Nicht jeder These wird man folgen, vielleicht regt sich auch Widerspruch, aber das ist gut so und auch gewollt.
Ein schönes kleines Büchlein. Eine klare Empfehlung.
Kennen Sie VUKA? Das überstrapazierte Akronym und Sinnbild der Herausforderungen unserer modernen Zeit?
VUKA steht für Volatilität (also extreme Ausschläge), Unsicherheit, Komplexität und Ambiguität. So populär der Begriff ist, krankt er daran, dass die enthaltenen Begriffe nicht unabhängig voneinander sind.
Das „A“ greifen die beiden Autorinnen heraus und das ist erfrischend, denn vor allem zu Unsicherheit und Komplexität ist schon sehr viel gesagt worden.
Ambiguität, also Mehrdeutigkeit, verursacht Unsicherheit und Stress, aber unsere Kapazität für Ambiguität unsere Ambiguitätstoleranz ist trainierbar und darum geht es in diesem Buch.
Ganz zentral ist dabei der Status Quo, der uns vermeintliche Sicherheit suggeriert. Es ist daher vom Status Quo Bias die Rede, also unserer natürlichen Tendenz den Ist-Zustand gegenüber unsicheren künftigen Zuständen zu präferieren. Auf der anderen Seite lohnt sich die Auseinandersetzung mit Ambiguität, denn Ambiguität provoziert Fragen.
Unserer Kapazität für Ambiguität in unserem Fühlen, Denken und Handeln ist kontextspezifisch, aber Ambiguität kann auch ein Erfolgsfaktor sein:
When we aim to change, innovate, or transform, tolerating ambiguity is crucial for our success.
Letztlich gibt es 4 Erwartungshaltungen gegenüber dem Status Quo bzw. indirekt gegenüber der Ambiguität:
Protect the status quo
Restore the status quo
Evolve the status quo
Reimagine the status quo
Wenn wir uns der Ambiguität, der verschiedenen Erwartungshaltungen und dem Umgang damit bewusst sind, dann können wir mit 6 Design-Prinzipien bewusst Ambiguität für uns nutzen. Diese sind:
Open the Space
Leverage Tensions
Aim for Insights
Visualize the Invisible
Prototype Progress
Trust in Potential
Diesen Bogen arbeiten Katrin und Tamara aus. Ihr Anliegen ist es, unser Bewusstsein für ein so sperriges Thema zu schärfen und gleichzeitig aufzuzeigen, wie wir damit umgehen und es für uns nutzen können.
Bei all meiner Skepsis gegenüber dem Einsatz von KI im Projektmanagement habe ich dann doch einen Anwendungsfall für mich entdeckt: Die Bürokratiebefriedigung.
Zumindest im Konzernumfeld kennt das doch jeder. Da gibt es Applikationen, Checklisten & Formulare, die bedient werden müssen – egal ob Projektmanagement, Risikomangement oder bei anderen Fragestellungen. Mittlerweile natürlich alles digital.
All zu oft werden diese Frage-Antwort-Spielchen dann zum Selbstzweck und wir müssen uns Antworten aus den Fingern saugen, versuchen verzweifelt irgendwelche generischen Aussagen abzuleiten und umzubiegen, aber damit ist jetzt Schluss, dank der KI!
Also nicht dass es jetzt weniger unsinnige Tätigkeiten in der Welt gäbe, aber die KI hilft uns bei der kreativen Beantwortung, bei der Bürokratiebefriedigung oder der Bezwingung des Bürokratiemonsters.
Satya Nadella (Microsoft CEO) hat auf dem Weltwirtschaftsgipfel 2023 in Davos ganz in diesem Sinne über die Möglichkeiten von Chat-GPT & Co berichtet:
[…] I saw was a rural Indian farmer trying to access some government program, so he just expressed a complex thought in speech in one of the local languages that got translated and interpreted by a bot, and a response came back saying go to a portal and here is how you’ll access the program, and he said look, I’m not going to the portal, I want you to do this for me, and it completed it, and the reason why it completed it was because they had a developer building it who had taken GPT and trained it over all of the government of India documents and then scaffolded it with speech recognition software,“ he said.
Satya Nadella (Microsoft CEO)
Aber jetzt ist auch wieder gut mit den KI Themen hier auf schlossBlog. Also nicht, dass KI künftig als Thema ausgeschlossen ist, aber diese kleine Reihe endet hier.
Nachdem openPM etwas im Dornröschenschlaf weilt, das alte Wiki abgeschaltet ist und die Seiten aktuell nur ohne SSL Zertifikat erreichbar sind, hier ein alternativer Download für die Canvas Vorlagen:
Ehrlich gesagt langweilen mich die „KI und….“ Fragestellungen. Jedes Gebiet, jede Branche meint jetzt KI für sich thematisieren zu müssen. Torsten Koerting war einer der ersten im deutschsprachigen Raum (Amazon Affiliate Link), der diese Frage für das Projektmanagement gestellt hat. Das Projektmagazin hat dazu ein Whitepaper und eine Blogparade am Start, auf dem PMCamp Stuttgart 2023 hat uns Oliver Kretzschmar demonstriert, wie die KI Projektmanagement Prüfungsaufgaben vorbildlich löst. Von der GPM gibt es die „KI in der Projektwirtschaft“ (ebenfalls Amazon Affiliate Link).
Alles schön und gut.
Ich bin auch völlig überzeugt davon, dass wir in Projekten mit und an der KI arbeiten werden, aber an den großen Mehrwert für das Projektmanagement glaube ich nicht oder halte ihn zumindest für überbewertet. Vielleicht liegt das an meinem Verständnis von Projekten und Projektmanagement.
Wenn die Einzigartigkeit ein elementares Beschreibungselement von Projekten ist, dann ist auch klar, dass probabilistische Antworten an ihre Grenzen stoßen. In meiner persönlichen Sicht sind die wesentlichen Erfolgsfaktoren für Projekte vor allem Transparenz und Kommunikation. Zur Transparenz kann die KI sicherlich beitragen, natürlich auch für die Kommunikation, allerdings wird sie hier nicht weiche Aspekte ersetzen können. Haben wir nicht heute schon oft das Problem, dass eher technisch getriebene Kommunikation an ihre Grenzen stößt? Good old Watzlawick hat einmal das Wort geprägt „Man kann nicht, nicht kommunizieren.“ Wie geht die KI mit Nicht-Gesagtem um? Wie weit kann die KI unterscheiden zwischen dem was gesagt ist und dem was gemeint ist? Wie weit kann KI (unausgesprochene) Erwartungen antizipieren?
Selbstverständlich werde auch ich KI nutzen. In Projekten und im Projektmanagement. Nur im Projektmanagement sehe ich sie nicht unbedingt als den Game Changer.
Einen Anwendungsfall im Projektmanagement habe ich übrigens durchaus für mich entdeckt, aber der ist Gegenstand des nächsten Beitrags.
In diesem kleinen Rundumschlag zur KI bislang noch völlig unberücksichtigt sind rechtliche Aspekte.
Als juristischer Laie, will ich mir auch gar nicht anmaßen dieses Thema umfassend zu behandeln, aber zumindest aus Prozesssicht wollen wir kurz ein Schlaglicht auf diesen Bereich werfen.
Input
KI Modelle brauchen Input und Konzerne wie openAI oder Google haben einfach das Internet (aber auch andere, vielleicht gar nicht mal frei zugängliche Inhalte) abgegrast. Wie weit die Verarbeitung dieser Inhalte dabei immer legal ist/war, darüber streiten beispielsweise Verlage, die ihre eigene Existenzgrundlage wegschwimmen sehen. Nicht auszuschließen, dass die Rechtsprechung hier der KI noch den einen oder anderen Knüppel zwischen die Beine werfen wird. Wir werden sehen…
Rechtlich unkritische sollte es sein, wenn wir unsere eigenen Inhalte in die KI kippen.
Verarbeitung
Bei der Verarbeitung ist das schon wieder anders, denn wir haben hier zumeist einen „loss of control“ gegenüber den KI Anbietern und es stellen sich die klassischen Fragestellungen der Cybersecurity nach Vertraulichkeit, Integrität und Verfügbarkeit.
Beim Vertraulichkeitsthema spannend könnte aber beispielsweise auch sein, wieweit die KI Modelle aus unserem proprietären Inhalten lernen und diesen Erkenntnisgewinn (und gar nicht mal die Dokumente selbst) mit anderen teilen. Lernt die KI auch aus unserem Input um Fragen eines Konkurrenten zu beantworten, der das gleiche KI Modell verwendet?
Output
In dieser Reihe hatten wir schon die Qualitätsthematik bei Antworten aus der KI angeschnitten. Wir wollen einmal nicht hoffen, dass damit gleich Haftungs- und Gewährleistungsrisiken auf uns selbst zurückfallen. Spannend ist aber beispielsweise die Frage nach den Verwertungsrechten. In puncto Transparenz vorbildlich ist hier z.B. der Umgang mit KI generierten Bildern in der Wikipedia (siehe Kommentar zum Logo unten). Hier schließt sich auch der Kreis zu den Urheberrechten beim Input. Aber wieweit ist es ausreichend auf die Generierung der Inhalte durch ein KI Modell hinzuweisen? Kritisch ist schon mal, dass wir i.d.R. keine Chance haben überhaupt nachzuvollziehen welche Inhalte konkret in eine Antwort eingegangen sind. Worst case schreiben wir sogar von einer Quelle ab oder verletzen deren Rechte ohne es überhaupt zu wissen. Wenn heute Plagiatsjäger mit den Möglichkeiten der Digitalisierung Doktorarbeiten aus der Papier- und Bibliotheksära zerlegen, dann möchte ich mir nicht vorstellen, was da möglicherweise in Sachen KI noch vor uns liegt. Oder müssen wir alle KI Ergebnisse dann erst noch einer Plagiatsprüfung unterziehen, bevor wir sie verwenden?
Zu meinen Lieblingsbeiträgen der Wikipedia gehört der Cognitive Bias Codex. Hierbei handelt es sich um eine Übersicht über die vielfältigen kognitiven Störungen bei uns Menschen. Die pure Anzahl und die Komplexität dieser Störungen führt uns unsere eigene Unzulänglichkeit nur zu gut vor Augen.
Diese Verzerrungen sind jetzt auch nicht „krankhaft“, sondern ganz normal – ein Zeichen unserer beschränkten Wahrnehmungs- und Verarbeitungsfähigkeit.
Der Titel dieses Beitrags leitet jetzt geflissentlich über zu der Frage, ob es solche Verzerrungen nicht auch in der KI gibt.
Eine erste Antwort finden wir bereits im Beitrag zu Belastbarkeit & Grenzen: KI basiert zum Einen auf Wahrscheinlichkeiten und nicht auf Wahrheiten oder Logik und zum Anderen ist die KI natürlich abhängig von dem ihr zur Verfügung gestellten Inhalten. Hier gelten noch immer die Grundprinzipen der Datenverarbeitung: Garbage in, garbage out.
Für ein aktuelles Projekt (eine Methoden-Übersicht) haben wir versucht die Attribute zur Beschreibung von Methoden mit Hilfe der KI vorzunehmen, bzw. unsere eigenen Überlegungen dazu mittels KI zu validieren. Die KI Ergebnisse dazu hielten leider unseren Erwartungen nicht stand, angefangen davon, dass uns die KI zu anderen Attributen überreden wollte und deutlich von den Vorgaben abgewichen ist, fand sie auch generell toll, was immer wir ihr gegeben haben, womit wir beim Thema kognitive Verzerrungen wären. Es gab also eindeutig eine Bestätigungstendenz.
Wenn man darüber nachdenkt ist das Ergebnis auch gar nicht so überraschend, denn was wir ihr als Input gegeben, ist natürlich gegenüber ihren anderen Ressourcen hochprior, nur anstatt unsere eigene Modellbildung damit kritisch auf den Prüfstand zu stellen, hat uns die KI dann lobend auf die Schulter geklopft. Gut fürs Ego, schlecht für das Ergebnis.
Wenn man jetzt noch berücksichtigt, das durch die Wahrscheinlichkeitsbetrachtung letztlich auch nur bestehende Lösungen einbezogen werden können, dann wird schnell klar, dass die KI zwar eine Umsetzungsmaschine, aber ein Innovationszwerg sein muss.
Unser Versuch der Methodenbeschreibung ist nur ein einfaches Beispiel. Die Fragen am Rande des Cognitive Bias Codex lassen sich aber auch auf die KI übertragen. Was tun, wenn…
…wir mit zuvielen Informationen konfrontiert sind.
…es an Bedeutung und Kontext fehlt.
…wir schnell handeln müssen.
…die Aktualität und „Haltbarkeit“ von Informationen nicht ganz klar ist.
Letztere bringt auch das Thema „Vergessen“ auf. Wenn Informationen veralten, dann sollten wir sie vielleicht sogar vergessen und sie nicht in unsere Antworten einbeziehen, aber es heißt doch so schön: Das Internet vergisst nicht. Nicht nur die KI muss noch viel lernen, sondern auch wir im Umgang mit der KI.
Bereits im Beitrag zur Belastbarkeit und den Grenzen wurden KI Use Cases (also Anwendungsfälle für die KI) kurz angeschnitten. Dort hatte ich noch gehofft, dass mir die Miro-Integration die KI selbst erklären kann.
An dieser Stelle nicht vorenthalten möchte ich dann die Zusammenstellung von Use Cases, die dann doch noch konventionell entstanden ist. Selbstverständlich habe ich dann noch versucht diese mit der KI zu validieren (mit dem bekannten Ergebnis), aber das möchte ich gerne separat in einem eigenen Beitrag aufgreifen.
Aber hier die vermutlich immer noch nicht vollständige Liste der generischen Anwendungsfälle:
KI basierte Suche
KI basierte Content Compilation (also z.B. Zusammenfassungen)
KI basierte Content Creation (also die Erstellung z.B. von Strukturen, Aufzählungen, Textbausteinen, Programmcode oder Daten)
KI basierte Simulation
KI basierte Moderation/Anleitung (z.B. in Form von ChatBots, sodern diese nicht rein auf Skritpen beruhen)
KI basierte Vergleiche (z.B. von Dokumenten)
KI basierte Mustererkennung
…
Anmerkung & Quellen: Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt). Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI… Und dann ging es um Belastbarkeit & Grenzen.
Im ersten KI-Beitrag hier auf schlossBlog kam schon die Frage auf nach der Belastbarkeit und den Grenzen der KI. Wenn wir heute von KI sprechen, dann basieren die meisten Lösungen auf probabilistischen Modellen, d.h. streng genommen sucht die KI nicht nach der „richtigen“ Lösung unserer Fragestellung, sondern nach der wahrscheinlichsten Antwort auf diese Fragestellung. Das erklärt auch wunderbar, warum KI-Antworten mitunter kompletter Bullshit sein können, denn (1.) ist die KI natürlich abhängig von ihrem Input und (2.) durchforstet sie diesen Inhalt auf erwartbare Muster.
Trotzdem sind die Ergebnisse oft erstaunlich gut, aber können wir uns auch auf sie verlassen?
Wenn wir die Natur der KI (Achtung, Wortspiel!) verstanden haben, dann können wir das eigentlich nicht. Dann ist der Einsatz der KI streng genommen nur dann legitim, wenn wir die Korrektheit und Verlässlichkeit der Antworten selbst beurteilen können. Dann liefert sie uns vielleicht einen Turbo und beschleunigt unser Arbeiten, aber die Verantwortung bleibt in unseren Händen.
Im Rahmen des KI-Hypes bekommt aktuell alles eine KI-Integration. Microsoft bastelt an einem Copiloten für das Office und beispielsweise Miro unterstützt uns z.B. beim Brainstorming mit KI,, in dem wir das Thema für eine Mindmap festlegen und die Software liefert uns KI gestützt eine erste Version, wie hier im Beispiel, in dem ich Miro nach den Use Cases der KI (Englisch: AI) befragt habe:
Das Ergebnis ist im konkreten Fall ernüchternd (ich habe aber auch schon bessere Ergebnisse für KI generierte Mindmaps in Miro gesehen), denn beantwortet wird eigentlich nicht die Frage nach Use Cases (also Anwendungsfällen), sondern es werden Branchen für den Einsatz aufgezählt. Der zweite Versuch (mit der Einschränkung: branchenunabhängig) gerät dann noch schlechter, weil diese Einschränkung offenbar nicht als solche verstanden wird.
So geil KI-gestützte Abkürzungen sein mögen und unseren Arbeitsalltag erleichtern können, zeigen sich hier erste Qualitätsprobleme.
Was heißt schon KI?
Diese Frage klingt schon etwas ketzerisch, aber nicht überall, wo KI drauf steht ist auch KI drin oder zumindest nicht in der Form, wie wir es erwarten würden. Ein Beispiel hierfür ist die KI-based search in der Notizsoftware Evernote. Als Everrnote-Nutzer ist dieses Angebot doch gleich einen Blick wert. Den eigenen Content in der AI zu nutzen klingt charmant, doch wenn man dann z.B. bei Taming the Trunk nachliest, wie das konkret funktioniert, macht sich auch hier die Ernüchterung breit, denn lediglich die 4 vermeintlich relevantesten Notizen werden tatsächlich in die AI geschickt (ursprünglich waren es einmal 8).
Bei aller Begeisterung für die KI, den gesunden Menschenverstand kann sie bis auf weiteres nicht ersetzen. Aber bitte nicht missverstehen, das ist kein Technologie-Pessimismus, sondern lediglich der Versuch aktuell die Einsatzmöglichkeiten eben einschließlich von Belastbarkeit & Grenzen einzuschätzen.
Anmerkung & Quellen: Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazugehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt). Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Keine Angst, dies wird kein KI-Blog und ja, der KI-Hype nervt mich selber. Da sind viel zu viele Buzzwords im Raum und viel zu viel blinder Enthusiasmus. Auf der anderen Seite stehen die Chancen und die Irreversibilität der Entwicklung. Es wird uns also gar nichts anderes Übrig bleiben. als uns damit auseinanderzusetzen. Und ich versuche das auch immer wieder, z.B. hier im Beitrag zum Work Panorama nach Raphael Gielgen, bei dem ich mich mich mit Bard, der KI von Google, statt mit Raphael unterhalten habe. Aber halt, Bard ist schon wieder Geschichte, denn seit letzter Woche heißt Bard, jetzt Gemini.
Google scheint ja gegenüber openAI etwas im Hintertreffen, obwohl mir irgendwie Prompt, Google-Integration und die Aufbereitung der Antworten einen Tick besser gefallen haben.
Anlässlich der Umfirmierung (und weil ich mich auch mit einer Bezahloption beschäftige), habe ich Gemini mal nach den Unterschieden zwischen Gemini und Chat-GPT gefragt:
Frage: Vergleiche Gemini und Chat-GPT und erkläre mir die Unterschiede und jeweiligen Vor- und Nachteile. Stelle sicher, dass deine Antwort leicht verständlich, eindeutig, kurz sowie gut strukturiert ist.
Datenbasis: Gemini bis September 2021, ChatGPT bis 2023 (Plus-Version)exclamation
Multimodalität: Gemini verarbeitet Text, Bilder & Videos, ChatGPT nur Text
Verfügbarkeit: Gemini USA & UK, ChatGPT global
Vor- und Nachteile:
Gemini:
Vorteile:
Kostenlos
Multimodal
Zugriff auf Google-Suche
Schneller & präziser bei manchen Aufgaben
Nachteile:
Weniger Sprachen
Eingeschränkte Verfügbarkeit
Jünger & weniger ausgereift
ChatGPT:
Vorteile:
Mehr Sprachen
Globale Verfügbarkeit
Größere Datenbasis
Langzeiterfahrung & ausgereifter
Nachteile:
Basismodell kostenlos, aber limitiert
Plus-Version kostenpflichtig
Teils langsamer & weniger präzise
Fazit:
Gemini: Gute Wahl für kostenloses, multimodales KI-Tool mit Fokus auf Google-Integration.
ChatGPT: Bewährte Option mit breiter Sprachunterstützung & großer Community.
Wahl hängt von:
Budget
Sprachbedarf
Gewünschter Funktionen (Multimodalität)
Verfügbarkeit in Ihrer Region
Weitere Punkte:
Beide KI-Modelle entwickeln sich ständig weiter.
Benutzerfreundlichkeit & subjektive Präferenzen spielen eine Rolle.
Tipp: Probieren Sie beide Modelle aus, um festzustellen, welches besser zu Ihren Bedürfnissen passt.
schlossBlog-Fazit: Die Antwort ist sachlich und knackig und auch nicht Google gefärbt. Jetzt ist bei den KI ja immer die Rede von einer Datenbasis 2021 (Gemini) oder 2023 (Chat-GPT) und trotzdem ist die gelieferte Antwort zu Gemini (Geburtsjahr 2024) vernünftig und nachvollziehbar.
Und genau das ist für mich aktuell der springende Punkt: Wie belastbar sind die Antworten der KI bereits?
Auf diese Fragestellung werden wir hier sicher noch das eine oder andere Mal zurückkommen.
PS: Und noch eine Anmerkung zur Illustration dieses Beitrags, die ist nämlich „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazugehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).