#016 | CHLOE, Albanien & NotebookLM
Shownotes
00:00:01 Intro - Episode 16 00:01:00 KI-Explosion: Täglich neue Modelle 00:01:30 Das Internet-Gefühl der 90er ist zurück 00:02:00 Glückskeks-Weisheiten für beide 00:03:30 Rückkehr vom INSEAD Advanced Management Program 00:04:00 KI in der Reproduktionsmedizin 00:04:30 Chloe: FDA-zugelassenes KI-Tool für Embryo-Auswahl 00:05:30 Trainiert auf Millionen Embryo-Outcomes 00:06:00 Zellteilung in Echtzeit analysieren 00:06:30 Könnte Körpergröße, Intelligenz, Geschlecht vorhersagen 00:07:30 Ethische Grenzen diskutiert 00:08:30 EU AI Act: Hochrisiko-Anwendung 00:10:00 NotebookLM: Kurt's Lieblingswerkzeug 00:11:00 Podcast-Generierung aus Dokumenten 00:12:30 Zwei KI-Moderatoren im natürlichen Dialog 00:14:00 Interactive Feature: Hand heben und Fragen stellen 00:15:30 Vergleich mit "Deutschland spricht" auf BR 00:17:00 Funktioniert nur auf Englisch (noch) 00:18:00 Gemini Pro Abo: 25$ mit allen Features 00:20:00 Warum NotebookLM überzeugt 00:22:00 Spotify-Ökonomie: 0,003 Dollar pro Stream 00:23:30 Christian schätzt richtig: Größenordnung 0,001 00:25:00 Lateinamerikanischer Spotify-Betrug mit KI-Songs 00:27:30 Geschäftsmodell: Tausende Songs, Bots abspielen lassen 00:30:00 Moralische Ambivalenz diskutiert 00:32:00 Content-Apokalypse beginnt 00:33:00 LinkedIn-Infografik-Flut dank NanoBanana 00:35:00 Faceless YouTube-Kanäle 00:36:30 3.000 Podcast-Episoden pro Woche 00:38:00 Content wird zur Massenware 00:39:00 Albanien: Weltweit erster KI-Minister 00:40:00 KI gegen Korruption in Verträgen 00:42:00 Deepfakes: 96% pornografisch 00:44:00 Taylor Swift, Scarlett Johansson 00:46:00 Gefälschte CFO-Videokonferenzen 00:48:00 Millionenbetrug bereits Realität 00:50:00 ChatGPT als Therapeut: Menschen teilen Geheimnisse 00:52:00 Google rockt: NanoBanana Pro 00:54:00 Kurt wechselt von ChatGPT zu Gemini 00:56:00 Flux 2: Deutsches Bildmodell aus Schwarzwald 00:58:00 Cloud-Souveränität: Warum Kurt das für Humbug hält 01:00:00 Christians Excel-Trauma: 12 Reiter, 5 MB Template 01:02:00 Confluence-Tabellen: Noch schlimmer als Excel 01:04:00 Wegwerfsoftware-Konzept erklärt 01:06:00 INSEAD Advanced Management Program 01:08:00 Toyota-Directors und Milliarden-Budgets 01:10:00 Die gleichen zehn Probleme bei allen 01:12:00 John Wayne-Moment: Pistolen-Gesten 01:13:30 "Sie müssen aufhören zu schießen" 01:15:00 Kollektives Gelächter im Raum 01:16:00 20% Eigenfinanzierung, Rest vom Unternehmen 01:17:00 AMP als Verifizierung vor CEO-Rolle 01:18:00 Ausblick: Phoenix Encounter, Harvard Business Review 01:19:00 LinkedIn-Kontaktaufnahme erwünscht 01:20:00 Verabschiedung
Transkript anzeigen
00:00:01: So herzlich willkommen Mensch mal
00:00:05: wieder ich weiß gar nicht wie viele Folge ist das jetzt 27 12 keine
00:00:10: Ahnung 3000 fangen wir mit 3000 ich glaube 16 oder 17 also herzlich
00:00:14: willkommen an alle unsere Zuhörer mit
00:00:19: mir wieder dabei der einzig wahre Christian Heining wer sonst
00:00:24: und und Kurt that's me wir
00:00:29: haben super Themen dabei ich war vier Wochen weg da
00:00:33: werde ich Stück für Stück in den nächsten Folgen ein paar Themen auspacken ich
00:00:38: glaube wir haben heute echt viele KI Themen ja ich war ich war nie weg
00:00:41: und ich glaube die letzten zwei Wochen ist wieder so viel passiert gefühlt
00:00:45: jeden Tag irgendwie eine Neuigkeit wo irgendein neues Modell eine neue Technologie
00:00:50: auf den Markt kommt explodiert und Gefühl
00:00:55: kommt man gar nicht mehr mit ich weiß nicht ich weiß nicht wie in Anführungszeichen
00:00:58: normale Menschen die KI Welt gerade erleben aber für mich ist gefühlt
00:01:02: jeden Tag irgendwo eine Explosion dabei hätte nie gedacht dass ich jetzt mit 38 Jahren
00:01:06: noch mal so ein nerdiges Gefühl bekomme und wir sind mal wieder so weit es
00:01:10: ist wie damals das Internet das Internet ja ich weiß noch da war mal was
00:01:14: ja erste Mal utorrent runtergeladen Musik runtergeladen
00:01:18: auf 28 Minuten ich werde nie vergessen mein Vater hat
00:01:22: mich fast umgebracht ich habe da so ein Lied runtergeladen über sein Handy Rechnung
00:01:27: kam 500 Mark oder sowas damals wenn ich mich nicht irre und
00:01:32: dann waren alle so Erklärungsnoten ich dachte mir okay mein Ende ein
00:01:38: Lied runtergeladen das ist jetzt mein Hände weißt du das Lied war hoffentlich gut und
00:01:41: du hast es bestimmt du hast MP irgendwo oder Ja weißt du das ist ein
00:01:43: türkischer Vater du suchst echt nach jeder Ecke in der Wohnung wo du dich verstecken
00:01:48: kannst Für einen Moment war ich kurz mal so ein Ding so ein X man
00:01:52: ich habe mich kurz mal weggefühl wieder zurück Christian bevor wir
00:01:56: loslegen ich habe was mitgebracht ja schieß los ich
00:02:00: habe mitgebracht für Christian Glückskekse Christian
00:02:05: mach mal auf fahren wir doch mal mit so eine Glückskeksnachricht an Reinrascheln hier für
00:02:09: die Hörer ja reinrascheln wie heißt es ASMR heißt das glaube ich oder
00:02:12: ASMR heißt das genau so.
00:02:26: Sehr guter Spruch sogar auf multilingual Deutsch
00:02:30: und Englisch. Also was hast du soll
00:02:35: ich zuerst? Okay, bei mir steht erstmal
00:02:39: auf Englisch. Die deutsche Übersetzung ist übrigens lustig, ich lese sie gleich.
00:02:43: Lucky stars, growing influence and more independence.
00:02:48: Also die Sterne stehen mir gut oder günstig
00:02:54: steigender Einfluss und
00:02:58: mehr Unabhängigkeit. Und die deutsche Übersetzung wiederum hier günstige
00:03:03: Sterne, wachsender Einfluss und mehr Unabhängigkeit. Ja,
00:03:07: passt auch. Kann man auch nehmen. Was steht bei dir? Setze deine Talente ein.
00:03:12: Kurz und knackig. Use your talents. Sehr gut. Das ist
00:03:16: ein Zeichen, Christian Das ist ein Zeichen. Müssen wir nur wissen, welche sie sind.
00:03:20: Ja, wenn man das nur wüsste. Also ich
00:03:24: bin jetzt zurück von meinem Advanced Management Programm inseat
00:03:29: Fontin Bleu und jetzt habe ich währenddessen aber auch schon
00:03:33: gemerkt, KI Welt geht total ab. Christian, du hast
00:03:37: ein paar Themen mitgebracht. Ich habe bisschen was mitgebracht. Ich habe paar lustige Themen auch,
00:03:40: aber ich würde sagen, wir fangen mal mit etwas an und
00:03:44: um KI, was uns beiden Spaß macht.
00:03:48: Jetzt bin ich mal gespannt, was kommt also uns nicht zusammen, aber für
00:03:52: uns alleine und zwar Koitus.
00:03:57: Okay, da würde ich jetzt gerne mal die Pointe wissen, wie KI
00:04:01: zusammenhängt. Ja, ja, ja, ich habe jetzt und zwar folgendes Koitus.
00:04:07: Es geht um Embryologie,
00:04:12: heißt das glaube ich. Also wenn man Kinderwunsch hat, wenn man Kinderwunsch
00:04:16: hat, dann geht man zum Spezialisten und dann tun die ihr Bestes,
00:04:20: dass man halt rausfindet und das machen meistens Profi
00:04:24: Ärzte in diesem Fachgebiet und was die machen ist durch
00:04:27: optischen, durch Durchsicht in wie heißt denn das?
00:04:31: Also durch Mikroskop oder Mikroskop, durch eine sehr,
00:04:35: sehr tiefen Blick, nenne ich jetzt mal in meiner meiner schwachen Sprache
00:04:39: versuchen die rauszufinden, welches dieser Embryonen
00:04:44: am fleißigsten sind und schnappen sich die und
00:04:48: befruchten dann so die Kurzversion, ne? So das
00:04:52: passiert aber wirklich auf Erfahrung,
00:04:56: Fachwissen der Ärzte. Okay, also tiptop
00:05:00: für AI eigentlich. Also hat sich Es gibt
00:05:04: ein neues Produkt, heißt Chloe C H L O E und
00:05:09: das ist ein AI embryologisch, wenn ich das hier richtig ablese aus
00:05:12: meinem Dokument. Genau. Und die haben letztendlich ein Tool entwickelt,
00:05:17: ein KI Tool zur Embryo Bewertung. Bewertung heißt in dem Fall,
00:05:20: welche sind geeigneter, fleißiger und ermöglichen
00:05:26: eine höhere Chance, dass man auch schwanger wird,
00:05:29: welche weniger natürlich
00:05:34: diskussion wenn wir darüber diskutieren müssen dann geht es halt los Naja
00:05:38: die Frage ist immer würdet ihr als potenzielle Eltern Chloe vertrauen
00:05:42: weil es eine AI ist was ist wenn ich dann als Arzt sag hey herzlich
00:05:47: willkommen bei uns es macht bei uns unser Tool oder
00:05:50: hat man die Erwartung für diesen Preis kostet alles auch Geld zu sagen nee das
00:05:55: muss der Arzt selber machen weil wir ja wieder in dem Bereich sind also jetzt
00:05:58: mal noch nicht so ganz weit aber wir sind so in dem Bereich wo dann
00:06:01: auf einmal der Arzt in der Funktion wie wir es bisher hatten nicht mehr so
00:06:05: interagiert wie wir es uns wie wir es erwarten weil wir es nicht anders
00:06:09: kennen ich glaube da sind wir mittlerweile in einer Zeit angekommen
00:06:13: wo genau diese dieser Übergang stattfindet von
00:06:18: menschlicher Expertise wo Experten wirklich über Jahre lang
00:06:21: einen Beruf eine bestimmte Fähigkeit erlernt haben
00:06:25: und man ihm deswegen vertraut Ärzten und auf
00:06:30: der anderen Seite werden mittlerweile Computersysteme einfach so mächtig um
00:06:35: wirklich auch jahrelang erlerntes Wissen nicht nur
00:06:39: gleich gut zu machen sondern besser zu machen Bestes Beispiel ist Krebserkennung
00:06:43: in irgendwelchen radiologischen Untersuchungen Röntgenbildung Untersuchungen etc.
00:06:47: Gibt es Untersuchungen dass die Ergebnisse von künstlicheren
00:06:50: besser sind als das was ein Mensch macht und gut ich bin jetzt kein Experte
00:06:56: in embryonale Auswahl aber auch da klar natürlich
00:06:59: hat man als die Eltern glaube ich sind oder die werdenden Eltern sind sicherlich
00:07:05: kann mir vorstellen einer sehr verzwickten Lage und wollen natürlich
00:07:09: da auch Expertise haben aber am Schluss wenn sich herausstellt dass eine
00:07:13: Maschine das besser macht why not und ich glaube was
00:07:17: viel wichtiger ist es ist gut ist es schlecht ist die Frage
00:07:21: nach Ethik Frage nach ich sage
00:07:25: nur Stichwort in Europa den EU AI Act gibt es ja
00:07:29: gewisse Klassifizierungen wie Anwendungen KI Anwendungen zu klassifizieren sind und
00:07:33: ich glaube dass das Thema Embryonalauswahl ist höchste Stufe es geht
00:07:37: um Leben und Tod gut kann man jetzt natürlich noch mal ethisch
00:07:41: bewerten ist das schon ein Lebewesen weiß ich nicht aber
00:07:45: wie glaube ich wir sind hier eher in einer Hochrisiko in der kritischen Anwendung das
00:07:50: zumindest Europa bin mir sicher sprichst von USA mit
00:07:54: dieser Anwendung da hast du in Europa Stand heute keine Chance ja wir
00:07:57: warten ja immer darauf dass die Amerikaner oder die Asiaten wobei ich
00:08:02: sagen muss eher die USA es erstmal vormacht,
00:08:05: damit wir uns von der Ferne sozusagen daran gewöhnen können. Oh, das geht ja.
00:08:09: Na dann machen wir es auch. Lass mir ein paar Fakten mal
00:08:12: dir geben, dass man mal so ein Gefühl dafür bekommt. Das wird tatsächlich eine ethische
00:08:16: Angelegenheit, weil, also ich habe jetzt das sehr grob beschrieben in meinem laienhaften
00:08:20: Sprache, aber kurz mal ein paar Fakten. Also dieses Chloé bedeutet
00:08:25: ausgeschrieben, cultivating human life through optimal embryos.
00:08:30: Also da hat sich jemand nach ein paar Bierchen ein paar Bayreuther ausgetobt.
00:08:34: Jedenfalls ist es ein FDA zugelassenes KI Tool zur Embryo Bewertung.
00:08:38: FDA ist eine Association Food
00:08:42: and Drug Association, also eine Food and Drug, die letztendlich die
00:08:46: amerikanische, also ist zwar Food, aber ich denke auch
00:08:51: Medizinprodukte werden da entsprechend zertifiziert und sind ziemlich harte
00:08:56: Nummer. Also da FDA zertifiziert zu werden, ist eine
00:09:00: hohe Kennzeichnung. Man muss vielleicht eine kleine Klammer setzen. Wir sind jetzt
00:09:05: gerade in der Zeit in USA, wo einiges möglich ist.
00:09:08: Vielleicht ist das auch ein Grund dafür.
00:09:12: Interessant ist folgendes. Beste Zeit
00:09:16: für sowas eigentlich. Trainiert auf Millionen Embryo Outcomes.
00:09:19: Analysiert die Zellteilung in Echtzeit, also nicht
00:09:23: nur optischart, sondern die gucken auch, wie sich das bewegt, wie sich das entwickelt und
00:09:27: so weiter und so weiter in Echtzeit. Ich meine, wir sind ja Zeit.
00:09:36: Der Cody Fee ist ein Klaus Wiemer, ich kenne jetzt sehr
00:09:41: deutsch, klingt nach einem sehr deutschen oder Weimer wegen der Uroper wie beim Trump.
00:09:47: Genau. Und sagt folgendes, und das ist jetzt auch wieder interessant, könnte wieder ein sehr
00:09:51: deutsches Phänomen sein. Embryologen verbringen 40 Prozent
00:09:55: ihrer Zeit mit Papierkram, also letztendlich
00:09:59: wahrscheinlich ausfüllen, analysieren, gucken, tralala sowieso die
00:10:04: Alternative, die es bisher gab oder gibt es PGT, das heißt
00:10:08: zwei Wochen tausende Dollar, zeigt nur Chromosomen an,
00:10:12: Chromosomenzahl, also wesentlich weniger Informationen.
00:10:17: Wenn du diese Zellteilung analysieren kannst,
00:10:20: haben die folgendes festgestellt. Und zwar,
00:10:24: und zwar, jetzt kommen wir zu der ethischen Frage,
00:10:29: es wäre möglich, mit der gleichen Technologie
00:10:34: Körpergröße, Intelligenz und Geschlecht vorherzusagen.
00:10:37: Wow. Das heißt, du nimmst Einfluss auf wirklich auf die,
00:10:41: Ja, du machst eine Selektion. Also das,
00:10:45: was ich gesagt habe, du bist in wirklich eine Hochrisikoanwendung. Ich muss dazu noch
00:10:49: mal kurz eine eigene Story erzählen. Einer meiner, als ich in Fort Blömer,
00:10:53: das ist jetzt ein purer Zufall, dass es da reinpasst. Wir haben das Thema gehabt
00:10:56: mit Bestimmung des Geschlechts und in Saudi Arabien ist das heute schon möglich.
00:11:01: Du kannst das Geschlecht des Kindes definieren oder bestimmen.
00:11:06: Bestimmen, Wahnsinn. Ich saß daneben. Bestimmen kannst du
00:11:10: es ja auch bei uns, aber wahrscheinlich dort sehr früh.
00:11:13: Also er hat gesagt, Story war,
00:11:16: also ich kann es ja sagen, der Munir, schöne Grüße,
00:11:21: wenn er Deutsch versteht mittlerweile glaube ich nicht, oder Zuhört.
00:11:26: Interessant. Er gesagt, er hatte glaube ich gesagt vier Söhne oder
00:11:30: drei Söhne und dann wollten die eine Tochter und dann war es Mädchen. So ein
00:11:34: Zufall. Nein, nicht Zufall, sondern genau, die haben es bestimmt tatsächlich.
00:11:38: Du meinst mit bestimmen meinst du beeinflussen? Ja, Ach so,
00:11:42: ja, die haben das beeinflusst. Also die haben gesagt, die wollen jetzt eine Tochter
00:11:46: und dann dachte ich und ich saß daneben wie so ein deutscher Bauer,
00:11:50: so ein Depp aus Hacksdorf, nichts gegen Hacksdorfer oder so ein alter,
00:11:54: so ein Kenner Bauer, weißt du, ich hab Nein, das ist nicht möglich,
00:11:58: das können sie ja nicht machen, Sowas gibt es nicht. Doch gut,
00:12:02: also Saudi Arabien gibt es es. Vielleicht nutzen die auch die Chloe Lösung bereits.
00:12:06: Ja, mit Sicherheit. Also übrigens, wenn ihr mehr über Chloe wissen
00:12:09: wollt, dann gebt ein Chloe und ein MIT, da gibt es einen riesen
00:12:13: Artikel darüber. Ist super spannend. Und wie gesagt, die ethische Frage ist dann
00:12:17: eben, oh, wenn das dann geht,
00:12:20: wo zieht man dann die Linie? Also was ist dann so
00:12:24: ethisch? Was ist nicht ethisch? Vertrauen wir dem Ganzen? Und es
00:12:28: gibt ja auch eine, wie sagt man,
00:12:32: wer trägt dann Risiko? Also wir reden ja gerade von einem Versuch
00:12:35: letztendlich jemand möchte schwanger werden, man kann Embryonen testen, das könnte man dann einpflanzen.
00:12:40: Was ist, wenn das nicht funktioniert? Ein paar Euro kostet das ja trotzdem
00:12:43: noch. Und da ist die Frage, okay, wer haftet?
00:12:48: Ja, super, super Punkt. Also interessanter Punkt.
00:12:51: Ich fand es sehr, sehr spannend. Ja, aber auch hier wieder die die
00:12:55: Frage bisher macht diese Entscheidung ein Mensch und auch ein
00:12:58: Mensch ist nicht perfekt. Auch ein Mensch macht Fehler und das ist auch die gleiche
00:13:02: Diskussion, die ich gefühlt jeden Tag höre. Ja, wir können ja nicht vertrauen
00:13:05: und die KI jetzt mal wieder auf den, auf die, auf die,
00:13:10: auf LL M bezogen. Ja, die macht ja Fehler,
00:13:13: die halluziniert natürlich. Ja,
00:13:16: weiß jeder mittlerweile, aber stell dir vor, du hast einen neuen Mitarbeiter,
00:13:20: arbeitest den ein, der macht auch Fehler. Also das heißt, ich glaube, wir müssen uns
00:13:24: einfach daran gewöhnen, dass man künstliche Intelligenz durchaus
00:13:32: mit einem kritischen Auge bewerten muss immer. Und sie
00:13:36: ist eben nicht statistisch perfekt oder auch deterministisch im
00:13:41: Sinne von du gibst eine Frage ein und kriegst immer die gleiche Antwort, sondern auch
00:13:44: das kann variieren. Und ich denke, damit müssen
00:13:48: wir uns in nächster Zeit immer mehr auseinandersetzen mit Systemen, die wir auch hinterfragen
00:13:53: müssen kritisch. Da gibt es eine coole Statistik, muss ich auch gleich
00:13:57: loswerden. Also die MIT MIT Technology Review hat eine Umfrage
00:14:01: durchgeführt. Die Frage war einfach, welche Aufgaben würdest
00:14:05: du einer KI anvertrauen? Die Forscher von Meta,
00:14:09: also METR einer so eine Forschungsorganisation KI etc.
00:14:14: Haben herausgefunden, dass die Komplexität der Aufgaben, die LLMs mit
00:14:18: 80 Prozent Genauigkeit bewältigen können und
00:14:23: diese exponentiell wächst, nicht linear,
00:14:27: exponentiell wächst.
00:14:29: GPT-5 ist laut ihren Messungen das zuverlässigste System.
00:14:33: Wir sind mittlerweile schon bei 5, 1 und so weiter und so weiter. Das habe
00:14:36: ich tatsächlich noch gar nicht ausprobiert. Ja, 5.1. Ich bin weg von ChatGPT.
00:14:39: Ja, ja, ich sehe dazu. Ja, kommen wir gleich dazu. Und die Umfrageergebnisse
00:14:44: sind spannend. 59 Prozent aller aller
00:14:48: Befragten haben gesagt, ich will KI nichts von diesen Dingen machen lassen,
00:14:51: also Kein Vertrauen. Genau. 18 Prozent würden Inbox Management
00:14:55: und Meeting Planung delegieren, Postfach und Meetings
00:15:00: organisieren. Kleine Info hier,
00:15:03: ich habe Christian mal ein Buch ausgeliehen vor sieben Jahren, glaube ich, oder acht Jahren
00:15:07: und da war schon ein Beispiel drin von Kai Fu Lee, wo er reingeschrieben
00:15:12: hat, eine AI Google oder AI Kalender Organizer,
00:15:15: also wie viele Jahre zurück.
00:15:19: OK, 12 Prozent würden eine Reise planen lassen, 11 Prozent würden
00:15:23: Essensplanung und Online Einkauf delegieren. 0 Prozent würden mit Freunden und
00:15:27: Familie in Kontakt bleiben, delegieren. Das macht
00:15:31: durchaus Sinn. Wobei ich muss echt, ich muss gestehen, ich habe
00:15:36: tatsächlich letztens eine e mail zu 100 prozent von ki schreiben lassen,
00:15:40: weil ich einfach keine Lust hatte, die selber zu schreiben.
00:15:43: Und ich hoffe, derjenige,
00:15:47: der sie bekommen hat, hat es nicht gemerkt, aber die war sehr gute E Mail,
00:15:50: ich habe sie quer gelesen, funktioniert auch gut das
00:15:55: Thema. Auch zum Thema Reiseplanung habe ich eine Story tatsächlich unseren
00:16:00: letzten Urlaub haben wir jetzt nicht komplett mit KI geplant,
00:16:03: aber wir haben folgendes Experiment gemacht wir haben mit der
00:16:07: Familie das Handy am Tisch gelegt in der Mitte, haben auf Record
00:16:11: geschalten, haben diskutiert was wir so wollen, was wir nicht
00:16:15: wollen etc. Und haben daraufhin dann uns Empfehlungen geben lassen
00:16:19: und das war gar nicht schlecht also zum Thema ist natürlich nicht geplant im
00:16:23: Sinne von bu dieses Hotel und mach genau das und diesen Flug aber
00:16:28: zumindest mal erste Ideen sich geben lassen war super Ich
00:16:33: glaube aber, dass zum Thema Reiseplanung guckt
00:16:37: man in die Unternehmen wie viel jetzt in gewissen Branchen verreist
00:16:41: wird und Ausseneinsätze gemacht wird was da an Energie investiert wird in Hotels
00:16:46: suchen Hotels buchen, Autos buchen dann auch der ganze
00:16:50: abbrechen Kram. Also ich glaube, dass da wahnsinniges Potenzial daran ist es zu
00:16:54: 100 Prozent zu automatisieren zu 100 Prozent hundertprozentig und
00:16:58: Accounting steht bei mir auf der Liste ne Accounting W das erste wo ich sagen
00:17:03: würde rationalisiert euch sofort damit ihr wichtigere Aufgaben wahrnimmt aber
00:17:07: du hast völlig recht überleg mal Auto buchen, Hotel buchen tralala
00:17:11: wenn du einfach eine KI, wenn die genug Infos über dich haben und dann sagst
00:17:15: hey ich brauche ABC. Es gibt ja Guidelines im Unternehmen, wo du ja einhalten
00:17:19: musst. Es gibt ja Policy genau genau und dann kann man festlegen, die kann man
00:17:23: als als Text beschreiben und dann soll sich bitte eine KI dran halten und selbst
00:17:26: wenn das Argument dann ist ja du kannst ja vielleicht nicht bei einer
00:17:30: Pension XY per Internet buchen ja aber du kannst ein Chatbot,
00:17:34: ein Voicebot kann er vielleicht anrufen und der versteht die Frau an
00:17:38: der Theke und die macht mit dem einen Termin aus und macht mit ins Buch
00:17:41: das Zimmer genauso ich mache mal diese Linie komplett
00:17:46: du machst einen Kalendereintrag ich
00:17:50: tops noch mehr also Beispiel du führst ein Gespräch mit einem potenziellen Kunden oder whatever
00:17:54: der sitzt in Berlin danach entsteht ein Transkript aus
00:17:58: dem Transkript wird klar, dass du und mit ihm ausgemacht hast, dass ihr euch dort
00:18:02: trefft im Februar ChatGPT oder ein KI sagt
00:18:06: hey guck auf beide Kalender, schlag drei Termine vor,
00:18:10: warte ab bis beide zusagen für einen Termin dann weiß ich, der Christian braucht dort
00:18:14: ein Hotel in der Nähe ich kenne den Christian Buch, Buch, Buch, Buch übrigens
00:18:18: braucht man dafür keine Hotelplattform mehr ich
00:18:22: könnte einfach auf der Webseite der Hotels gehen. Genau, genau.
00:18:25: Checkt ab und Notfall, so wie du es gesagt hast, frägt nach, ruft an,
00:18:29: klärt für dich und du kümmerst dich überhaupt gar nicht mehr
00:18:33: um das Ganze. Du kriegst nur noch E Mail, wo draufsteht, da ist dein Hotel,
00:18:36: das ist das, das ist das. Richtig. Also ich top das
00:18:40: nochmal. Du sagst, nee, da kann ich nicht hin, Hotel gefällt mir nicht, die Zimmer
00:18:43: irgendwie sind komisch, Buch das um, Buch das um. Also überleg mal,
00:18:47: Christian, Wahnsinn, Wahnsinn. Und das kommt, also ich muss
00:18:52: mal sagen, das kommt, wir haben überhaupt keine andere Wahl und
00:18:56: wir müssen auch gar kein KI können. Das wird irgendwann all unsere Kalender und Outlook
00:19:00: und Microsoft ist da natürlich die Domäne, das kommt
00:19:04: 100 Prozent, weil du gerade Outlook und Microsoft sagst, ich hatte heute
00:19:08: auch den Fall, wir haben zu zweit vier Stunden eine PowerPoint Präsentation bearbeitet.
00:19:12: Geht ja mittlerweile wirklich toll. Ich weiß gar nicht, wie das früher war. Früher,
00:19:16: Wenn du eine PowerPoint, also beispielsweise eine Unternehmensstrategie Präsentation
00:19:20: über vier Leute abstimmen musstest, dann musstest du das per E Mail rumschicken,
00:19:24: dann musstest du Versionen machen. Okay, schau du mal drauf, mach mal eine neue Version,
00:19:27: sag mir genau, V, final, Klammer zu,
00:19:34: wir haben vier Stunden Präsentation gemacht, weiß nicht, wie viele
00:19:38: Folien es waren und dann Textfelder rumgeschoben und machst ein bisschen weiter hinter und
00:19:43: ja, und bitte Hintergrund und Farbe ändern und besser alleine, warum kann
00:19:47: man das nicht auch zukünftig beschreiben? Du kannst ja mittlerweile auch schon, können wir vielleicht
00:19:50: nachher dazu mit Tools wie Notebook LM und anderen
00:19:54: Tools Präsentationen erstellen. Das heißt, was ist, wenn du in Zukunft
00:19:59: nur noch Instruktionen gibst, per Sprache sagst, bitte, ich habe das und das Thema,
00:20:02: bitte schreib mir die Präsentation und wenn du nicht zufrieden bist, dann kannst du es
00:20:05: per Sprache nachbessern. Kannst sagen, hier bitte diese Änderung hier, die Tonalität
00:20:08: ändern, Design bisschen ändern. Also ich bin fest der Meinung, dass das zukünftige,
00:20:13: die zukünftige Interface zum Computer wird nicht mehr nur die Tastatur sein,
00:20:18: sondern Sprache, menschliche Sprache wird immer wichtiger werden. Und ich glaube, ich sage das
00:20:22: jede Folge. Mein Interface zu den
00:20:26: Sprachmodellen ist tatsächlich meine Sprache, also zu Textbox.
00:20:30: Ich diktiere rein, auch selbst wenn du, ich weiß, du bist kein großer Fan von
00:20:34: Siri. Siri ist der absolute Scheiß einfach kacke.
00:20:37: Aber das Witzige ist, das ist im Sprachmodell egal. Selbst wenn du,
00:20:41: wenn du mal einen Satz irgendwie ein bisschen verdängelst, wenn du nicht komplett
00:20:45: vom Inhalt ein Thema Verfehlung machst, es ist egal. Es ist im Sprachmodell
00:20:49: wurscht. Das ist das so tolerant.
00:20:54: Ich habe noch was neulich gelesen und zwar, es gibt ja diesen mit und das
00:20:58: ist jetzt wirklich mal ein Tipp an alle und zugleich erstmal die
00:21:02: Entschuldigung. Wir sagen ja ständig in jeder Folge, dass wir es verlinken werden. Wir verlinken,
00:21:06: wir haben bisher nichts verlinkt. Christian, falls du es nicht gemerkt hast. Wir haben gar
00:21:09: nichts verlinkt. Wir sagen es euch. Bitte merkt euch das einfach. Das ist easy.
00:21:12: Es gibt den MIT AI Hype Index,
00:21:16: also alles gehyptes und die packen das in so einen Graphen rein und sagen,
00:21:20: ist es unterirdisch oder totaler Wahnsinn. Und in so einer Zeitleiste
00:21:24: und dieses Hype Index, die ändert sich auch, glaube ich,
00:21:28: einmal die Woche oder sowas. Es ist ja auch im Moment so viel Bewegung.
00:21:31: Ja, also totaler Wahnsinn. Und jetzt muss ich mal kurz was sagen, da passt
00:21:35: du jetzt rein. Und zwar ein Highlight war, Forscher trainieren
00:21:39: KI, um ihre eigenen Jobs zu machen.
00:21:43: Ja, also es gibt tatsächlich Forscher, die KI darauf trainieren, die Art von
00:21:48: repetitiven, analytischen Aufgaben zu übernehmen, die sie selbst machen.
00:21:51: Das ist rational. Warum sollte ein hochqualifizierter
00:21:56: Wissenschaftler Stunden damit verbringen, Datensätze zu cleanen, wenn eine KI da sie Minuten erledigen
00:22:00: kann? Oder du kannst was sagen. Ich meine, du hast ja Forscher, bist Forscher.
00:22:04: Ja, also forschen klingt immer so,
00:22:08: stellt sich vor wie irgendein James Bond Film, man sitzt im Labor und hat
00:22:13: nur mit tollen Gagäten zu tun und macht nur hochwissenschaftliche
00:22:18: Dinge. Ja, aber du machst auch ganz viele dreckige Dinge.
00:22:21: Also Excel Listen ausfüllen, Daten bereinigen,
00:22:25: Messungen durchführen beispielsweise, wenn du irgendwas Experimentelles machst, natürlich sehr
00:22:30: viel Text schreiben am Schluss dann Berichte schreiben, Forschungsberichte schreiben, wissenschaftliche Artikel
00:22:34: formulieren. Und das ist ganz, ganz vieles davon
00:22:38: ist sehr unromantisch, vor allem, wenn du im Bereich Machine Learning,
00:22:42: Datenanalyse tätig bist. Es ist wirklich hässliches
00:22:47: Python und Jupyter Notebook Geschubse und gut, ich habe
00:22:51: jetzt eine Zeit, war wissenschaftlich tätig, da gab es diese ganzen,
00:22:54: Er redet aus, erfahrung da gab es diese ganzen Tools noch nicht,
00:22:58: gab es die Tools noch nicht, da musstest du das alles von Hand machen oder
00:23:01: hast vielleicht noch ein Hiwi gehabt. Hiwi, also irgendein Hilfswissenschaftler, der 3,50
00:23:06: bekommen hat und dann für dich die Arbeit gemacht hat. Ich finde es gut.
00:23:09: Ich finde es sehr gut, weil es ist wie in jedem Beruf ist die Automatisierung.
00:23:13: Hat nicht, hat nicht nur, ist nicht
00:23:17: nur ein Ding, wo man Angst haben muss um deinen Job, sondern es nimmt dir
00:23:21: Sachen weg, um dich auf andere Sachen fokussieren zu können. Meine Messages an
00:23:25: alle Branchen, insbesondere die konservativen, ihr habt es alle
00:23:29: nicht geschafft, verdammt noch mal nur einfach nur Daten aus Maschinen zusammenzufuchteln,
00:23:33: um das mal zu analysieren und daraus fruchtbare Produkte zu entwickeln.
00:23:36: Jetzt kommen Leute um die Ecke und können deine Sprache so genau verstehen,
00:23:40: dass sie künstliche Intelligenz dazu losschicken, um in deiner
00:23:45: Sprache Podcasts zu generieren und was weiß ich was oder zu sprechen oder
00:23:49: den Zahnarzt anzurufen oder Daten zu analysieren. Das heißt, du gibst einem Sprachmodell
00:23:54: ein komplett kaputtes Excel und es versteht das
00:23:58: Excel schreibt Analysetool, schreibt Daten, Cleanup Tools und
00:24:01: du musst dich umhaupt nichts kümmern. Absolut, absolut.
00:24:04: Also wirft eine Frage auf das ganze Thema, wenn die KI
00:24:09: die langweiligen Teile deines Jobs übernimmt, was bleibt dann übrig? Im besten
00:24:12: Fall die kreative strategische Arbeit oder ich sag mal, ein Mensch
00:24:17: halt was, ein Mensch tut so Händen und Füßen, im schlechtesten Fall gar
00:24:21: nichts. Also muss man auch mal sagen. Und die und die
00:24:25: harte Wahrheit ist tatsächlich, dass viele, ich sage das in jedem
00:24:29: Podcast, dass viele Berufsgruppen verdammt nochmal ein komplettes Problem haben.
00:24:32: Tuto complet, ich könnte ja dutzende Berufe aufzählen
00:24:37: heute wieder ein gesehen oder ein Berufsbild gesehen.
00:24:41: Gut, das wird in der Statistik nicht besonders auffallen, eine Arbeitslosenkurse,
00:24:45: sondern es gibt so Grafiker, die Meetings mitprotokollieren
00:24:49: in tollen, wirklich echt gut aussehenden Bildern.
00:24:53: Es ist vor kurzem, ich glaube eine Woche her oder
00:24:57: zwei Wochen her, das Google Nano Banana Modell NanoBanana Pro
00:25:01: rausgekommen. Brutal. Das einfach brutal gute
00:25:05: Bilder erzeugt mit Text Prompts bzw.
00:25:09: Mit beiden. Also sowohl man kann ihm sowohl Bilder mitgeben als auch mehrere
00:25:14: Bilder oder Bilder plus Text. Und das Gute ist,
00:25:17: dass es extrem gut den Kontext erhält und Text
00:25:22: generieren kann. Das heißt Du kannst Schaubilder generieren, du kannst Infografiken
00:25:26: generieren, du kannst Texte irgendwo hinschreiben lassen und das mit einer noch
00:25:30: nie dagewesenen Qualität. Und Grafiker,
00:25:33: der irgendwelche Werbetexte macht, der,
00:25:37: weiß ich nicht, Social Media Beiträge kannst du mittlerweile
00:25:40: mit einem Schuss, kannst du die erzeugen. Da brauchst du nicht mehr kennen
00:25:44: dafür. Brauchst kein Kenner dafür. Ein Beispiel ist auch Übersetzer. Übersetzer,
00:25:48: technische Dokumentation braucht man nicht
00:25:52: mehr. Absolut, absolut. Dolmetscher in Echtzeit transkribieren brauchst
00:25:56: du nicht mehr. Gerade rund um das Thema Forscher
00:26:00: ist natürlich etwas überhyped, aber es ist etwas, wo wir
00:26:04: beide, glaube ich, sagen können, das kann mit sehr hoher Wahrscheinlichkeit
00:26:08: genauso kommen. Interessant ist die evolutionäre Frage.
00:26:12: Manchmal denke ich mir, es war ja bisher in der Evolution noch nie so,
00:26:15: dass die Leute dann irgendwie dann 80 Prozent der Gesellschaft arbeitslos war.
00:26:19: Wir haben ja trotzdem eine betriebswirtschaftliche, wie sagt man,
00:26:23: Ansporn, dass Leute arbeiten, damit wiederum andere Geld verdienen.
00:26:26: Klingt jetzt blöd, aber. Und ich denke mir so, was ist denn dann? Was kommt
00:26:31: dann? Also was machen wir mit den ganzen Übersetzern, die acht Sprachen
00:26:35: übersetzen können? Was mache ich jetzt mit dem? Weiß ich nicht, weil Robots gibt es
00:26:39: ja auch die, ich habe neulich wieder gesehen, aber das ist jetzt,
00:26:42: dass wir unseren Rahmen nicht sprengen. Robots, die unglaublich
00:26:47: echt aussehen und Mimik und Gestik nachmachen können.
00:26:51: Ich habe jetzt leider, wir haben ja nur, du verlinkst es bestimmt unter dem Podcast,
00:26:55: ich verlinke es nicht, aber ihr müsst euch das unbedingt anschauen, wer Da auch zu
00:26:59: YouTube gibt es einige Videos, aber bitte nicht diese Robots WM aus China,
00:27:03: wo die Roboter einfach umfallen. Ich meine richtig, also richtig
00:27:07: Mimik und Gestik und Bewegung. Absoluter Wahnsinn.
00:27:11: Ich habe es gesehen. Wenn ich es finde, dann nehme ich es mit zum nächsten
00:27:14: Podcast. Auf jeden Fall. Sehr gut.
00:27:17: Lass uns doch mal bei den bei den Neuerungen der letzten ein,
00:27:21: zwei Wochen bleiben. Also ich habe jetzt gerade schon angesprochen, NanoBanana Pro
00:27:24: als Bildmodell von Google, von Google Gemini habe
00:27:30: ich das Wochenende tatsächlich das erste Mal das erste Mal benutzt und
00:27:34: eine halbe Stunde später die Subscription abgeschlossen.
00:27:39: Also wirklich, du weißt, ich bin oft, ich bin schnell so Sachen
00:27:43: zu begeistern und bin eh auf der ganzen Hype Train, reite ich wirklich ganz oben
00:27:47: und nehme alles nehme alles mit aber dass ich wieder
00:27:51: mich dass mich irgendeine neuigkeit wieder so begeistern kann habe
00:27:56: ich tatsächlich schon lange nicht mehr gehabt ja immer mal wieder aber das war tatsächlich
00:28:00: einfach next level die bilder die ich da generiert habe witzigerweise auf meine
00:28:04: tochter ein arbeitsplatz bekommen die hat sie komplett verdattelt
00:28:08: gehabt und dann hätte sie entweder gut das war auch schon mit tintenkiller
00:28:12: alles schon durchgeschrieben und kreuz und quer gesagt okay jetzt entweder ich scanne jetzt ein
00:28:16: und setze mich 10 Minuten mit Photoshop hin und radier das raus und drucks
00:28:20: dann aus und kannst es noch mal machen oder ich dachte ich probiere es einfach
00:28:23: mal aus nanobanana gesagt hier das ist ein arbeitsplatz bitte entferne
00:28:27: alle handgeschriebenen texte bumm hab das arbeits bekommen
00:28:31: es war perfekt wirklich gedauert 35 Sekunden ich
00:28:35: muss es dir zeigen es ist einfach nur unfassbar welche abo hast du da dass
00:28:39: die zuhörer das auch mit das ist das Gemini pro Abo
00:28:43: kostet 25 ich glaube der erste monat ist sogar kostenlos also im moment zahle ich
00:28:47: auch noch nichts dafür und ist dann enthalten dann Gemini mit
00:28:52: deep Research mit dem neuesten modell mit nanobanana
00:28:56: pro es ist inkludiert auch ein Code assistent den
00:29:00: habe ich auch schon ausprobiert also Gemini Code Assist mit agentenmodus
00:29:04: das heißt den baust du in den vs Code ein und der läuft einfach los
00:29:07: erstellt ganze Projekte führt Code aus
00:29:11: den habe ich schon ausprobiert funktioniert gut und auch eines meiner
00:29:16: lieblingstools bisher auch schon in der kostenlosen Variante ist dabei und zwar Notebook
00:29:20: LM mit einem höheren limit tagtäglich das
00:29:24: tatsächlich noch nicht gerissen habe und können wir vielleicht ein Notebook LM ich glaube da
00:29:27: könnten wir eine ganze Folge machen also gefühlt rockt Google gerade
00:29:31: brutalst und ich glaube dass open die
00:29:35: kriseln gerade die kriegen gerade ein bisschen die krise weil Google einfach nur
00:29:39: abliefert am laufenden band Wahnsinn ja also Google hat definitiv überholt weil wenn
00:29:43: ich so sehe was Notebook LM macht und da auch also an alle die zuhören
00:29:46: Notebook LM unbedingt bitte machen es ist ein muss für jeden unbedingt
00:29:52: Notebook LM funktioniert folgendermaßen man hat also es ist nicht so das typische Chat
00:29:57: interaktionsinterface sondern man kann so ein gewissen thema macht
00:30:02: im Prinzip ein Projekt auf und kann Dort Inhalte reinkippen, PDFs, einfach Text
00:30:06: reinpasten, Links reinpasten und man kann dann
00:30:10: zu diesem Inhalt, den man da bereitgestellt hat, kann man
00:30:14: verschiedene neue Inhalte sich generieren lassen. Der Klassiker, ich glaube
00:30:18: das erste mit dem Notebook LM wirklich komplett durchgestartet ist und
00:30:22: so viral ging es, war, man konnte sich zu diesem Inhalt einen Audio
00:30:29: Overview generieren lassen. Das heißt einfach, man kann sich das
00:30:33: Ganze als MP runterladen und dann beim Auto hören.
00:30:36: Das nächste war, ist aber auch schon länger her, ist tatsächlich Podcast, das heißt
00:30:40: zwei Personen unterhalten sich interaktiv zu dem Thema.
00:30:44: Das dritte und vierte war ganz kurz, wenn ich unterbrechen hab,
00:30:47: das hat anfangs normal funktioniert. Anfangs gab es eine Person.
00:30:51: Genau, eine Person, dann zwei Personen, dann mehrsprachig.
00:30:57: Ja, mehrsprachig, genau, mittlerweile in vielen, vielen Sprachen, also Deutsch ist auch dabei und
00:31:01: man kann sich auch ein Report generieren lassen, eine Mindmap. Das heißt,
00:31:05: wenn man Thema erstmal, es ist auch super zum Lernen, wenn ihr Zuhörer,
00:31:09: Studenten seid, ich würde gerne auch mal in die Studienzeit zurückversetzt werden auch
00:31:13: mal, Man kann sich Mindmaps generieren lassen, um einfach ein Thema grundsätzlich mal zu
00:31:18: verstehen, wenn man ein visueller Typ ist. Man kann sich Flashcards, also Lernkarten generieren lassen,
00:31:22: das heißt, du kriegst Lernkarten und kannst interaktiv zum Thema lernen. Du kannst,
00:31:26: und das ganz neu jetzt auch, jetzt erst ein, zwei Wochen her
00:31:31: wahrscheinlich, weil auch Nanobanana Pro integriert ist, man kann sich Infografiken
00:31:35: generieren lassen, weil Nanobanana eben extrem gut ist, auch Text
00:31:39: zu generieren. Das waren bisherige Modelle eher
00:31:44: schlechteren, Das heißt Text letztlich generieren die Modelle ja Pixel
00:31:48: und früher war es wirklich so an allen Modellen von
00:31:52: Dolly und Flux und wie sie alle heißen, ja,
00:31:56: die haben teilweise Text generiert, aber der war fehlerhaft. Es haben Buchstaben gefehlt,
00:32:00: es waren Buchstaben irgendwie kyrillisch und keine Ahnung was gemischt und Nanobanana
00:32:04: Pro kann jetzt den Text perfekt erzeugen, das heißt haben diese
00:32:08: Infografik Möglichkeit, Du kannst dir zu einem kompletten PDF,
00:32:12: so eine wissenschaftlichen Arbeit, kannst du deine Infografik generieren lassen, die das komplette
00:32:16: Paper in einem Bild darstellt. Und jetzt der letzte Punkt ganz
00:32:20: neu, du kannst ja bitte festhalten, Slides generieren,
00:32:24: komplette Slides hatten wir neulich erst das Thema und ich habe einen
00:32:28: noch vergessen tatsächlich eigentlich noch next level und zwar gesagt
00:32:33: Audio Overview mit einem Speaker. Wir haben Audio Overview
00:32:38: letztlich Podcast mit zwei Speaker. Wir haben das Thema Slide und
00:32:42: es gibt mittlerweile auch Slide inklusive jemanden, der das spricht.
00:32:47: Das heißt, du kannst dir das sogar einfach berieseln lassen. Es ist einfach nur,
00:32:50: ich bin einfach nur sprachlos. Ja, jetzt hast du so schnell gesagt, also um mal
00:32:54: kurz aufzuschlüsseln, ihr seht, ich kann Christian gar nicht aufhalten hier bei
00:32:58: meinem Quatschen. Christian, wir haben heute noch ein Feature entdeckt, weißt du? Ja, wir haben
00:33:01: ein Feature entdeckt. Warte, warte, warte. Einfach nur, ich fall gleich vom Stuhl. Wir haben
00:33:04: heute mal ein bisschen experimentiert oder du hast experimentiert, ich auch. Und dann haben wir
00:33:08: gesagt, was haben wir denn für Ergebnisse? Und dann haben wir mal so ein Podcast
00:33:11: generieren lassen. Kurz mal zur Info. Notebook LM, das ist eine geschlossene
00:33:16: Welt mit, wie sagt man denn, Christian? Also auf jeden Fall kannst du
00:33:20: dort deine Quellen angeben. Genau so ein Projekt und dann das Projekt kannst du im
00:33:23: Prinzip beliebig viele Quellen reinpasten. Genau links.
00:33:27: Stellt euch vor, ihr müsstet über ein Thema einen Vortrag halten und Sammelt eure
00:33:31: Quellen, PDFs, Webseiten, Videos, die könnt ihr da
00:33:35: alle reinknallen. Notebook Element analysiert
00:33:39: und daraus entsteht all das, was der Christian gesagt hat und
00:33:43: wir haben dann einen Podcast generiert. Das funktioniert sehr stabil seit
00:33:47: einiger Zeit schon. Und heute haben wir noch ein Feature entdeckt. Erzähl mal kurz zu
00:33:50: dem Feature, was ich ja, das ist ja wieder so, wo ich mir denke,
00:33:52: Atemper WTF, wirklich auch
00:33:56: wieder Google einen abgeschossen. Und zwar haben wir diesen diesen Podcast
00:34:00: generiert. Okay, ist nice, kann ich mir vielleicht mal auf der Autofahrt
00:34:04: anhören und dann ist das ein Button, irgend so eine Hand,
00:34:07: die sagt, okay, Hand heben. Dann haben die nicht tatsächlich
00:34:11: in diesem Podcast kannst du interaktiv mittendrin einfach
00:34:15: deine Hand heben, dann pausieren diese beiden, dann kannst du deine Frage
00:34:19: stellen und dann gehen diese beiden Personen interaktiv auf deine Frage
00:34:23: ein. Wie unfassbar ist das bitte für mal all die, die mit
00:34:27: KI nicht viel am Hut haben und jetzt nicht verstanden haben, worüber wir reden.
00:34:30: Ich gebe euch mal ein Beispiel. Es passt eigentlich perfekt. Ich fahre montags abends ja
00:34:33: meistens zum Projekt und Montagabends, wenn ich so gegen
00:34:37: 19, 20 Uhr fahr, dann läuft auf BR mein
00:34:41: Nachrichtensender. Ich liebe diesen Nachrichtensender. Ich liebe Nachrichten auf jeden Fall
00:34:44: da läuft dann Deutschland spricht oder so heißt das das
00:34:49: Moderator erzählt da sind zwei Profs meistens eingeladen, einer aus
00:34:53: der Politik und irgendjemand den die auf der Straße gefunden haben und dann
00:34:57: aber haben die eine Nummer dazu da kannst du dich einschalten wie in einem Radio.
00:35:02: Das ist wirklich richtig geil. Teilweise reden die Leute irgendeinen Scheiß und
00:35:07: so ist das jetzt. Das heißt ihr habt einen KI generierten Podcast,
00:35:11: in denen ihr live dieser KI Fragen stellen könnt,
00:35:15: als ob ihr gerade euch in einer Radiosendung eingewählt
00:35:19: habt. Wir haben jetzt die nächste Berufsgruppe, die ein Problem hat Radiomotor.
00:35:24: Schöne Grüße an Rama Suri übrigens das wird
00:35:28: lustig. Okay, also auf jeden Fall. Also nur ist
00:35:33: aber ein Feature wo jetzt nur in der englischen Podcast, ich glaube das ist tatsächlich
00:35:36: nur Englisch. Ja bei mir habe ich es in Deutsch nicht. Also funktioniert nicht.
00:35:39: Alles andere was wir über diese Podcast erstellen und Quellen gesagt haben funktioniert in allen
00:35:44: Sprachen oder in vielen Sprachen und auch in Deutschland.
00:35:48: Aber dieses sich einschalten und Fragestellen der KI,
00:35:52: das funktioniert im Moment nur auf Englisch. Aber allein das das geht ist
00:35:56: atemberaubend. Wie gesagt, wie gesagt tatsächlich
00:36:02: eines meiner Favoriten Tools aktuell Notebook LM.
00:36:07: Sehr cool. Pass auf Christian,
00:36:11: wir haben kleinen Themenwechsel. Wir sind immer noch in AI Welt. Ich habe wieder richtig
00:36:15: geile Themen hier. Was glaubst du denn wie viel verdient
00:36:19: ein Künstler auf Spotify pro
00:36:24: Stream? Boah, erstmal die Frage hast verstanden. Also wenn einer ein Musikstück
00:36:29: abspielt, wie viel verdient dann der Künstler? Boah pro
00:36:34: Stream. Also ich gute Frage. Also ich schätze mal
00:36:46: Null Komma001 Dollar. Sehr gut. Es sind 0,003
00:36:50: Dollar immerhin die Größenordnung richtig geschätzt.
00:36:54: Also Passau richtig cool. Lateinamerikanische Musiker haben herausgefunden,
00:36:59: dass sie mit AI generierten Songs Streaming Plattformen betrügen
00:37:03: können. Sie erstellen tausende von Songs, lassen Bots diese Songs abspielen
00:37:07: und kassieren die Tantie. Eben das Geschäftsmodell ist schon bekannt, das gibt es
00:37:11: ja schon in anderen Domänen wie Werbung etc.
00:37:15: Ja also und dann die Frage,
00:37:19: die sich da in diesen Foren stellt ist, die haben gesagt, also man sagt
00:37:22: immer, das ist ja eh so ein kaputtes System, wo die Künstler ja immer weniger
00:37:26: verdienen. Also Musiker werden mit Spotify Kohle verdienen, dieser G.
00:37:31: Und dann hat man sich gedacht, naja gut, jetzt geht diese Welt
00:37:35: auch mal langsam runter eine Industrie, die langsam stirbt
00:37:40: und zwar in ihrer Kunst Musik zu
00:37:44: kreieren. Also super, super, super spannend.
00:37:49: Ich habe das letzte wieder ein bisschen mit Suno rumgespielt.
00:37:53: Ja, ist witzig, habe jetzt keine sinnvolle Anwendung, außer für unseren Podcast
00:37:57: mal zu generieren, aber es ist auch echt beeindruckend mit
00:38:01: wenig Aufwand du tatsächlich Musik generieren kannst Und ja,
00:38:05: und es ist eigentlich glaube ich grundsätzlich mittlerweile so mit
00:38:08: allen Medien, die du automatisch generieren kannst.
00:38:12: Die Welt wird überflutet. Jetzt pass auf,
00:38:16: er hat angefangen mit Texten, mit Blogartikeln,
00:38:20: Zeitungsartikel, selbst meine Regionalzeitung steht schon unten drunter, mit KI generiert.
00:38:25: Ist cool, aber natürlich führt es auch dazu,
00:38:29: dass die Welt überschwemmt mit Slop, mit einfach Quatsch,
00:38:33: denn sie wollen Content generieren, wollen irgendwie ihren Content pushen, wollen ihre Marke pushen
00:38:37: und führt dazu, dass Texte, Bilder,
00:38:41: Beispiel letzten zwei Wochen war mein komplettes LinkedIn nur voll
00:38:45: mit irgendwelchen dummen Infografiken, weil es Nanobanana jetzt kann.
00:38:48: Bist du geflutet mit Infografiken, hast gesehen mit
00:38:52: Bildern, Bilders kann nicht mehr sprechen, Bilders,
00:38:55: Bildern, jetzt und jetzt, das habe ich noch gar nicht angefangen.
00:38:59: Videos. Es gibt, ich habe gehört, es gibt creator,
00:39:02: die sogenannte faceless YouTube Kanäle
00:39:06: betreiben. Das heißt, die lassen komplette YouTube Videos komplett KI generieren,
00:39:10: stellen es online und können das natürlich absolut skalieren und damit
00:39:14: hintergehen sie auch ihr System. Das heißt, die machen massenhaft, erstellen sie Inhalte,
00:39:18: kriegen dadurch Klicks, kriegen dadurch Werbeannahmen und das ist das gleiche Spiel wie
00:39:23: mit Spotify. Also das ganze Thema Content kreieren,
00:39:27: vollautomatisch, hat auch seine negativen Seiten auf jeden
00:39:32: Fall. Da passt noch eine Story ganz gut, die ich auch gelesen habe und zwar
00:39:36: EES gibt ein AI Podcast Startup,
00:39:40: das über 3000 Episoden pro Woche ausspuckt,
00:39:43: alles mit AI generierten Hosts. Die Qualität
00:39:47: ist zwar durchwachsen, zeigt aber, wie sehr KI Content Produktion industrialisieren
00:39:52: kann. Also letztendlich ist
00:39:56: es ja auch eine Art und Weise von Spam,
00:40:00: wenn es ja, aber wenn es noch diese, ich sag
00:40:04: mal, mittelmäßige Qualität hat, jetzt haben wir über Podcast gesprochen mit
00:40:08: dieser Ultraqualität, dann ist nur nicht die Frage
00:40:12: eigentlich und ich meine berechtigt, du willst Informationen konsumieren.
00:40:16: Stell dir vor, wir hätten was ich sage, ich gehe mal von der Forschung
00:40:19: aus. Forschung heißt ja für mich z. B. Irgendwas entdecken, was spannend ist, dann schreibt
00:40:23: man eine Forschungsarbeit daraus ein, Doktorarbeit, was auch immer. Das ist ja spannend.
00:40:27: Wenn ich wüsste, dass man daraus ein Podcast machen könnte, würde ich es machen,
00:40:30: weil dann ist es ja eine neue Informationsquelle, was einem
00:40:34: lehrt. Alles andere gibt's alles mal.
00:40:38: Wäre schon happy, wenn es einfach nur fünf mal gibt und dann von mir aus
00:40:42: kann ich die gleiche Quelle einstellen. Ich will es von einer Frau hören, ich will
00:40:44: es von einem Mann hören, ich will es dominant hören. Weiß ich nicht. Ich will
00:40:47: es cool hören, ich will es hype hören. Why not? Genau. Und das glaube
00:40:51: ich, das führt zu einer, ich nenne es mal Hyper Personalisierung.
00:40:54: Das heißt, du kannst, du kannst den Content genauso konsumieren,
00:40:59: wie du ihn haben möchtest. Bestes Beispiel Podcast. Du hättest gerne Podcast
00:41:03: zum Thema XY. Und ich habe, ich habe tatsächlich folgendes schon gemacht. Ich hatte einen
00:41:08: Gedanken, ich beschäftige mich auch beruflich mit KI, mit Industrie,
00:41:12: Industrie, vernetzten Maschinen, einen Gedanken über, wie zukünftig
00:41:17: KI Agenten mit Maschinen kommunizieren.
00:41:21: Hab dazu meine Gedanken einfach reingesprochen in Gemini,
00:41:24: habe mir ein Whitepaper generieren lassen. Also Whitepaper
00:41:28: bedeutet, es soll Deep Research machen, also wirklich komplett zu diesem Thema recherchieren,
00:41:32: sammelt. Ich glaube, zeigte sogar an 40, 50 links hat
00:41:36: er durchforstet, kondensiert und daraus ein
00:41:40: Whitepaper geschrieben. Aber ich habe jetzt keine Lust gehabt, 80 Seiten Whitepaper zu lesen.
00:41:43: Und was habe ich gemacht? Ich habe dieses PDF in Notebook LM gekippt,
00:41:48: habe mir ein PDF, habe mir einen Podcast erstellt und habe den im Auto
00:41:51: angehört. Cool und was ähnliches. Also mit
00:41:56: wirklich Hyper Personalisierung auf deinen
00:41:59: Bedarf zugeschnitten, glaube ich. Es ist auch etwas Kontextwechsel,
00:42:04: aber im Bereich Software. Und zwar, ich glaube,
00:42:08: Das hat der Microsoft CEO mal gesagt, dass AI wird SaaS
00:42:13: killen. Und was er damit eigentlich gemeint hat, war,
00:42:16: dass du dir zukünftig, also oft ist ja
00:42:20: eine Software as a Service, kaufst du dir eine gewisse Dienstleistung,
00:42:23: eine gewisse, löst dir ein Problem, ist es vielleicht, du kaufst
00:42:27: dir als Unternehmer ein CRM System ein, ein Tool XY. Und was der
00:42:31: Microsoft CEO damit gemeint hat, ist, dass du zukünftig dieses Tool nicht mehr brauchst,
00:42:35: sondern du generierst es dir on the fly. Ich habe diese Woche auch einen LinkedIn
00:42:39: Post dazu geschrieben, ich habe es genannt Wegwerfsoftware. Das heißt du
00:42:43: hast eine Problemstellung die hast du vielleicht nicht nicht noch ein zweites Mal
00:42:47: aber jetzt gerade würde sie dir eine Stunde Arbeit
00:42:50: bedeuten. Was machst du? Naja du schreibst dir du lässt
00:42:54: dir Code generieren, der genau dieses Problem löst und danach schmeißt es weg.
00:42:58: Also Wegwerf Software Hyper Personalisierung Wegwerf Software
00:43:02: löst ein Problem einmal, aber schaffst es trotzdem dafür
00:43:06: dir eine Code zu generieren. Habe ich
00:43:10: tatsächlich letzte Woche gemacht hatte irgendein fieses Excel Kennst du meine Meinung zu
00:43:14: Excel? Das ist tatsächlich einer meiner nicht Skills Excel und ich lehne
00:43:18: Excel grundsätzlich ab. Auf jeden Fall da es lässt sich nicht ganz vermeiden Manchmal
00:43:23: hat es dann doch seine Daseinsberechtigung. Ich habe aus einer Software einen Export
00:43:28: bekommen, der war komplett kaputt und ich musste den auswerten.
00:43:31: Ich hätte mich eine Stunde hinsetzen können gut vielleicht ein pro ein Excel Pro jetzt
00:43:35: vielleicht eine halbe Stunde hinbekommen aber ich habe dieses Excel in Copilot reingekippt
00:43:39: und habe gesagt okay, in diesem Research Agent mach mit die und die Auswertung,
00:43:43: Boom, Auswertung bekommen, fertig. Excel weggeschmissen,
00:43:46: Erkenntnisse rausgezogen. Wahnsinn. Ganz kurze Excel Story muss
00:43:51: ich loswerden vielleicht fällt dir auch eine ein. Pass auf, du wirst jetzt gleich Excel
00:43:54: lieben für eine halbe Sekunde zumindest OK, pass auf Gespräch. Das ist auch
00:43:58: schon wieder ein Jahr her glaube ich oder so noch länger her. Ich habe gesagt,
00:44:01: hey, wo habt ihr diese Listen? Asset List,
00:44:05: wo ist denn das? Ja, der und der ruft die mal an, habe ich gleich
00:44:08: mal angeschrieben, gleich mal so mit dem Bauchgefühl, hey hey hast
00:44:12: du eine Liste? Schick mir die Excel.
00:44:16: Dann kam zurück, ne cool, ich habe es nicht in Excel, dachte ich mir so,
00:44:19: oh Gott sei Dank. Irgendeiner mal, der ein Hirn eingeschaltet hat, dann hat er zu
00:44:22: mir gesagt, ich habe es in Confluence Stopp,
00:44:27: aber die Excel ist ja hochgeladen in Confluence. Nein, nein, nicht Embedded Excel,
00:44:31: sondern wir reden von er hat Tabellen erstellt, TD, TR,
00:44:34: HTML, also in Confluence hat alles
00:44:38: hinzugefügt. Ich habe dann gesagt du hör mal zu, was soll
00:44:42: ich jetzt damit? Ich habe ich müsste das ganze mal sortieren nach irgendeiner
00:44:46: Eigenschaft war das ja Kurt, das geht da nicht. Da musst du einfach da
00:44:52: ist nichts einfach was soll ich da jetzt machen, ne, ganz einfach. Du gehst auf
00:44:56: editieren, markierst, sagst rechtsklick, kopieren, da dachte
00:45:00: ich mir okay, jetzt hat er mal rechtsklick kopieren gesagt, eigentlich gleich feuern, weißt du,
00:45:04: und ich soll das einfach in Excel hinzufügen. Excel erkennt das und dann macht er
00:45:07: das in die, macht er so eine Tabellenartig? Nein, er kennt gar nichts. Also er
00:45:11: fügt einfach das Ganze in die Zellen ein. Da ist nichts automatisiert, keine Tabelle,
00:45:14: kein gar nichts. Kann es nicht sortieren, kein gar nichts. Da habe ich für einen
00:45:17: Moment, habe ich Excel vermisst. Ich wollte gerade sagen, ich.
00:45:22: Es gibt eine Sache, die noch schlimmer ist als Excel. Ja, Tabellen in Confluence.
00:45:26: Confluence, wobei ich nehme
00:45:29: es zurück. Tabellen in Confluence sind so lange gut, solange die nicht zweimal
00:45:34: zwei überschreiten. Genau, solange sie nicht einen Sinn haben. Wenn es
00:45:37: einen Sinn hat, wenn man irgendwie sortieren muss oder anschauen muss, markieren muss,
00:45:41: machen muss, wenn es nicht gerade so eine Partyumgang ist, wenn es nicht gerade irgendwie
00:45:44: so eine Planung für eine Abendveranstaltung ist. Ansonsten ist das ja,
00:45:49: also an alle die Confluence, ja, da gibt es mehr Funktionen mittlerweile. Du kannst
00:45:53: Embedded Excel machen, du kannst da Tabellenfunktionen machen. Ja,
00:45:56: ist gut, alles gut, kann Excel auch, alles schön. Aber zu der Zeit
00:46:00: war es auf jeden Fall so eine Sache, wo ich mir gedacht habe, wo ist
00:46:03: Excel, wenn du es gerade brauchst. Weißt du, habe ich eigentlich dir schon mein Excel
00:46:06: Trauma schon mal erzählt oder warum ich das habe, das Excel Trauma? Wenn nicht,
00:46:09: erzähle ich es nochmal. Erzähl bitte einmal. Ich hoffe, ich wiederhole mich nicht, aber jeder,
00:46:13: mit dem ich über Excel spreche, der muss sich die Story anhören. Ich war ein
00:46:17: junger Arbeitnehmer und hatte
00:46:21: die Aufgabe, bin eine neue Abteilung gekommen und
00:46:25: dort sind gewisse Prozesse mit Excel abgebildet worden, wie es oft so mit findigen
00:46:29: Ingenieuren passiert. Die bauen sich dann ihre eigenen Excel Tools,
00:46:33: Excel Tools. Und dieses Excel Tool
00:46:37: hatte zwölf Reiter unten.
00:46:41: Ich glaube, allein das Template waren fünf Megabyte groß. Also wenn du ein
00:46:45: neues Projekt angefangen hast, musst du dieses Template dir holen. Geil. Musstest sicherstellen,
00:46:49: dass du das richtige Template in der richtigen Version hast. Hast du natürlich weiterentwickelt
00:46:53: dieses Tool, Stichwort Software Versionierung, Klammer auf, nicht vorhanden,
00:46:56: keine V, Klammer auf, neu, final.
00:47:02: Und dann hatte natürlich dieses Exedit 28 Milliarden Zellen
00:47:06: mit 27 Milliarden Bezügen. Da gibt es eine Funktion, ich weiß
00:47:10: gar nicht mehr, wie die heißt wo man in eine Zelle reingehen kann und dann
00:47:13: kannst du dir grafisch darstellen lassen, zu welchen anderen Zellen diese Zelle
00:47:18: Bezüge hat. Formeln. Cool, ich müsste mal nachschauen. Also ich weiß gar
00:47:22: nicht, ich habe es schon lange benutzt und dann hast du auf eine gewisse Zelle
00:47:24: draufgeklickt und gesagt bitte zeige mir alle Bezüge grafisch an Und dann ist ein
00:47:28: Blumenstrauß losgegangen. Du hast einfach nur noch blaue Striche gesehen.
00:47:32: Aber pass auf, das war noch nicht alles. Natürlich habe ich es regelmäßig geschafft,
00:47:35: durch meine Kreativität dieses Excel Sheets zu zerstören,
00:47:40: dass dann die Formel nicht mehr funktioniert hat haben Ich muss damit von vorne anfangen,
00:47:43: neues Template holen, wieder alles von Hand eingeben und das
00:47:47: Schlimmste war tatsächlich, dass innerhalb diesem Excel Sheet ist
00:47:51: man irgendwann an die Grenzen von Microsoft von diesen Makros VBA gestoßen,
00:47:55: dass man gesagt okay, ich binde noch ActiveX
00:47:59: Code C, irgendwelchen Legacy Code ein, den keiner mehr verstanden
00:48:04: hat, den binde ich mit ActiveX dort in dieses Action mit ein.
00:48:07: Das heißt, das hat das Ganze noch instabiler gemacht und sobald
00:48:11: ich glaube, das war Damals Umstellung von Windows 7 auf Windows 10 war ein Riesendrama,
00:48:16: weil nichts mehr funktioniert hat. Wahnsinn. Also das ist so bisschen die Begründung für mein
00:48:19: Excel Trauma, Aber jetzt lass uns gut, lass mal gut
00:48:23: sein mit extra nicht, dass ich nicht schlecht schlafen kann. Dieses einer
00:48:27: meiner Ex Auftraggeber, das jetzt drei Jahre her war ein Startup,
00:48:30: die du auch kennst übrigens werde ich nie vergessen, der damalige Geschäftsführer,
00:48:35: schöne Grüße übrigens, ich liebe seine Tennisschuhe.
00:48:39: Also eine Sache hat er nämlich er war ja also er
00:48:44: und Excel, ich glaube das ist ein Pärchen. Also ich glaube Excel und
00:48:48: er kennt sich hervorragend. Er gesagt Kurt, das heißt nicht
00:48:52: Excel, das heißt Excel.
00:48:56: Ich habe gesagt okay,
00:49:00: alles klar. Also es gibt auch
00:49:04: brutale Fans. Pass auf, ich habe noch eine Story und zwar habe
00:49:08: ich auch wieder neulich gelesen und zwar Thema war, als ich
00:49:12: damals bei dieser Schulung war AI for Business in Paris,
00:49:17: da hat der Prof. Damals der Theos gesagt wisst
00:49:20: ihr denn, wofür KI am meisten genutzt wird? Also das ist jetzt
00:49:25: eine Info aus April, okay, Aber jetzt neulich wieder eine Statistik
00:49:29: dazu gelesen. Alle haben gesagt ja Accounting und irgendwie
00:49:35: ratschlag holen oder was weiß ich, also lauter
00:49:39: solche Sachen, so Bericht erstellen, Artikel,
00:49:42: bla stopp. Sprichst du von welcher KI sprichst du?
00:49:46: Also von generativer KI. Ah, okay, okay. Weil ich hätte mich gesagt, wenn KI im
00:49:50: Allgemeinen, hätte ich tatsächlich gesagt, ich meine KI ist ja viel
00:49:53: mehr, habe heute die Woche tatsächlich einen Vortrag gehalten und habe da auch mal die
00:49:58: die Teilnehmer mal abgeholt, was eigentlich künstliche wirklich bedeutet und welche
00:50:02: Teilgebiete es auch gibt. Und KI ist ja im weitesten Sinne sind es
00:50:06: Computersysteme oder ist ein Teilgebiet der Informatik, die sich damit
00:50:10: beschäftigt, menschliches Wissen, menschliche kognitive Fähigkeiten mittels
00:50:14: Computersysteme abzubilden. Und da zählt auch tatsächlich einfache regelbasierte Systeme zählen auch
00:50:19: dazu, regelbasierte Systeme, also hat nichts
00:50:23: mit nichts, gar nichts mit Sprachmodellen zu tun, die mich überhaupt nicht
00:50:27: regelbasiert funktionieren. Und dann
00:50:32: habe ich auch gesagt, ja welche Anwendungen von KI glauben sie denn jetzt schon zu
00:50:36: benutzen, ohne dass sie es merken? Und da war eine Anwendung tatsächlich, die ich
00:50:40: da mit erwähnt habe, ist Empfehlungssysteme.
00:50:44: Das heißt, wenn du bei Amazon hast dein Warenkorb
00:50:48: und dann sagst du, andere Kunden haben auch das gekauft oder
00:50:52: du bist in Spotify, hörst ein Lied, kriegst ein anderes Lied vorgeschlagen,
00:50:56: gleiche bei Google Video, bei Netflix. Also meine
00:50:59: Empfehlung, Tipp wäre gewesen, tatsächlich Empfehlungssysteme sind,
00:51:04: sind relativ weit oben, weil die gefühlt in jedem sozialen Netzwerk,
00:51:08: die funktionieren nur so mit Empfehlungen, mit Content entsprechend dir
00:51:12: vorzuschlagen, der dir idealerweise gefällt, dass du möglichst
00:51:16: viel Zeit dort verbringt. Deswegen meine meine, mein Tipp wäre gewesen, Empfehlungssysteme ohne
00:51:20: es zu wissen. Und eigentlich ist die Antwort, wenn man ein bisschen länger nachdenken
00:51:25: dürfte, wird man darauf kommen.
00:51:28: Menschen teilen ihre Geheimnisse mit ChatGPT.
00:51:31: Ergo dient ChatGPT für viel als Therapeut.
00:51:36: Sehr spannend. Früher hat man gesagt, ich habe auch letztens Jahr schon wieder
00:51:41: gejoked, ich habe gesagt, da gibt es wieder so,
00:51:45: wie heißt das, auf Instagram gibt
00:51:48: es solche Reels, wo sie also Parodien, Parodien, das wollte ich sagen,
00:51:52: Parodien. Früher hat man ja gesagt so ja hier, nimm alles, aber schau dir ja
00:51:56: nicht meine WhatsApp Verlauf an oder WhatsApp Chats, jetzt müssen
00:52:00: weiter WhatsApp, ja, schau an, schau ja nicht Chat schau ja nicht an, was ich
00:52:04: ChatGPT alles frage. Es gibt ja mittlerweile sogar in den,
00:52:08: also zumindest bei Gemini gibt es so einen Inkognito Modus, da kann man dann speziell
00:52:12: spezielle Fragen stellen. Cool, cool, cool. Also Therapeuten
00:52:17: berichten, dass ihre Klienten heimlich nutzen und dass sie damit zufrieden
00:52:22: sind. Manche Menschen finden es einfacher, einem Chatbot ihre Probleme zu erzählen als
00:52:26: einem Menschen, weil sie sich nicht beurteilt fühlen. OK,
00:52:30: plus Therapeut kostet Geld und
00:52:34: so weiter und so weiter. Ja klar ist Therapie
00:52:38: heißt ja auch nicht nur zuhören, sondern menschliche Beziehung,
00:52:41: empathische Reaktion, Erkennen von Mustern. Also wenn Therapeut mit dir
00:52:46: redet, ein Therapeut analysiert dich ja ganz anders,
00:52:49: Bewegung und so weiter. Wobei ich immer sage Klammer auf, aber bald kann
00:52:53: das KI auch Klammer zu, also nächste Berufsgruppe.
00:52:57: Ja, lass mal anders, lass uns das mal anders definieren. Wir sagen mal so,
00:53:00: es gibt kaum Plätze bei Therapeuten und jetzt entlastet KI
00:53:05: die Therapeuten, entlastet und hilft vielleicht dem einen oder
00:53:09: anderen wirklich. Ich meine, ich bin da tatsächlich ja zwiegespalten.
00:53:16: Lass mich noch mal meine Gedanken zu Ende führen. Und zwar es entlastet die
00:53:20: Therapeuten. Aber jetzt, wir haben ja so eine, so eine, so eine Pyramide,
00:53:24: ne? Zeit und Anzahl der Plätze, die von Therapeuten gefordert werden versus
00:53:29: Anzahl der Therapeuten. So, jetzt rast
00:53:32: das Ganze exakt in die Gegenrichtung.
00:53:35: Jetzt ist es nämlich so, dass immer mehr menschen sich mit ChatGPT beraten
00:53:40: lassen, immer mehr Aufgaben ChatGPT übernimmt und immer mehr Entwicklung und Technik.
00:53:44: Jetzt stell dir vor, ich könnte meine Kamera hier anmachen, meinem MacBook,
00:53:48: es schaut mich an, analysiert mein Gesicht, okay,
00:53:51: schaut nach links, rechts, was ist und so weiter, Bewegung und so weiter und zack,
00:53:56: hast du schon viel, viel mehr Informationen in so einer KI drin. Und dann
00:53:59: eben ist RACE jetzt genau entgegengesetzt und zwar die Therapeuten müssen sich jetzt
00:54:04: was einfallen lassen, bevor sie gar keinen mehr haben, der reinkommt für einen
00:54:08: Tag oder was weiß ich, wie das ist. Genau, ich wollte sagen,
00:54:12: ich bin skeptisch, aber noch ein Kommentar. Ja,
00:54:16: ich glaube trotzdem nicht, dass sich Therapeuten Angst haben müssen
00:54:20: um ihren Job. Noch ganz im Gegenteil. Aber kann
00:54:24: durchaus sein, dass es ein Prozess wird, der einfach mit der Gesellschaft sich entwickelt.
00:54:28: Schau die neue Generation an, die kommunizieren komplett anders,
00:54:32: die telefonieren nicht mehr Die schreiben nur noch WhatsApp
00:54:36: Nachrichten. Was ich damit sagen möchte, ist, dass vielleicht in 10, 15 Jahren tatsächlich die
00:54:41: Jugend, die jetzt mit Sprachmodellen aufwächst, ein komplett anderes Verhältnis zu denen
00:54:45: entwickelt und sagt, okay, ich bevorzuge lieber tatsächlich eine, wie du schon
00:54:49: gesagt hast, ich bevorzuge das Gespräch mit einer KI, bevor ich zu einem
00:54:53: Menschen gehe. Und dann wird sich tatsächlich das Bild ändern. Was ich sagen wollte,
00:54:56: ist noch, warum ich kritisch bin, ist natürlich, baust du als Mensch
00:55:00: gegebenenfalls auch irgendeine Beziehung auf, irgendeine Art und Weise eine
00:55:05: Beziehung auf zu einer KI. Und es gab ja auch den Fall in den USA,
00:55:08: wo glaube ich, Ein junger Teenager,
00:55:13: 15, 12 über Monate mit, ich weiß nicht,
00:55:17: welche Sprachmodelle es war, mit seinen
00:55:21: Problemen gesprochen hat und irgendwann die KI, ich weiß nicht, was es war, kann ich
00:55:24: leider nicht sagen, dem empfohlen hat, Suizid zu begehen und er hat
00:55:28: es gemacht. Und ja,
00:55:31: siehst du mal, welche Risiken du am Schluss hast. Das wird der Therapeut
00:55:35: nicht tun. Okay, aber noch mal, also wir reden von trotzdem einer frühen
00:55:39: Entwicklung der KI. Heute sind die ja wirklich wesentlich, wesentlich besser
00:55:43: und wir reden gar nicht von so einem langen Zeithorizont. Und die
00:55:47: Vorfreude ist wirklich zu wissen, was passiert eigentlich heute in einem Jahr.
00:55:50: Man denkt sich, was kann jetzt da noch kommen, Vor allem, wie du schon sagst,
00:55:54: mit der Kamera. Also diese extremen Fortschritte auch in in Multimodalität.
00:55:58: Also ich glaube, dass Text alleine, würde ich
00:56:02: behaupten, tatsächlich ein gewisses Plateau erreicht.
00:56:06: Da ist nicht mehr viel rauszuholen. Aber eben diese Multimodalität mit
00:56:11: Video erstellen, Audio erstellen, Präsentation in Echtzeit,
00:56:15: Video erkennen, in Echtzeit, Video manipulieren gegebenenfalls.
00:56:19: Also Deepfake, ich hab was für dich. Es gibt
00:56:23: ja durchaus Sprachen auf dieser Welt, bei dem ist die Tonalität
00:56:26: eines Wortes entscheidend. Und ich glaube, deswegen ist
00:56:30: dieses Thema Speech auch so gehypt.
00:56:33: Die Art und Weise, wie du Worte aussprichst, können ja in gewissen Sprachen die
00:56:38: Bedeutung verändern. Also die Frage, die sich die Autoren
00:56:42: stellen in dem Fall ist, eine KI kann Ratschläge geben, aber kann sie wirklich heilen?
00:56:48: Das ist so. Ich hab gesagt,
00:56:53: wenn das psychische Problem nicht allzu gravierend ist, kann es
00:56:57: durchaus auch helfen, mal jemanden zu haben, mit dem man sprechen kann. Ich glaube,
00:57:01: dass das eines der Großen Probleme der Zukunft Einsamkeit
00:57:05: sein wird. Einsamkeit,
00:57:08: ja. Wenn da ein Sprachmodell hilft, why not?
00:57:11: Es ist zwar natürlich kein echter Ersatz für einen zweiten Menschen, für ein
00:57:15: Gegenüber, für einen Freund, aber vielleicht hilft dem einen oder anderen doch weiter.
00:57:19: Jetzt habe ich noch ein Highlight. Unsere Zuhörer haben
00:57:23: ja heute in unserem Einstieg Du hast mir verschiedene Musik Intros
00:57:29: mir geliefert und jetzt hast du mir auch was Neues geliefert und
00:57:33: zwar eine schöne albanische Musik, weil Albanien
00:57:40: hat weltweit, hat den weltweit ersten AI Made
00:57:44: Minister ernannt, eine Position, die KI nutzt, um Korruption
00:57:48: in Verträgen aufzudecken. Das ist faszinierend, weil es
00:57:51: zeigt, wie KI in Regierungen eingesetzt werden kann, um Transparenz zu schaffen.
00:57:55: Wie geil ist das denn? Und das ist jetzt endlich mal sinnvoll eingesetzt,
00:57:59: oder kein KI generierter Influencer, sondern KI
00:58:03: generierter Minister, Beamter, viel günstiger.
00:58:07: Tut ja nichts. Ein kleiner Tipp hier an unsere Regierung.
00:58:11: Also man könnte die Leute einfach auch mit KI ausstatten erstmal
00:58:15: und dann ersetzen. Ich habe aber nichts gesagt.
00:58:20: Das wäre mal interessant. Also tatsächlich mal die,
00:58:24: ich meine klar, Sprachmodelle und jetzt vor allem jetzt
00:58:29: solche Tools wie der Microsoft Copilot, das sind Industrieunternehmen.
00:58:32: Ich behaupte jetzt einfach mal, dass es fast kein Unternehmen
00:58:36: gibt, die jetzt die Microsoft Umgebung haben, die jetzt nicht irgendwie zumindest
00:58:41: den Co Piloten zulassen. Mich würde mal interessieren, wie es tatsächlich in
00:58:45: staatlichen Einrichtungen ist, Rathäusern, Landratsämtern, wie die damit
00:58:49: umgehen, ob die einfach noch gerade das Internet erfunden haben oder ob die tatsächlich schon
00:58:53: auf der Welle mitreiten. Das wäre interessant. Ja, ich habe da keinen Einblick,
00:58:57: Ich habe Mini Infos. Und zwar habe ich gestern zufällig jetzt
00:59:01: gestern hatte ich ein Gespräch mit einem Account
00:59:07: Executive von Microsoft in München und
00:59:13: wir haben ausgetauscht und da ging es eigentlich darum,
00:59:16: ich habe mir mal einen Überblick verschafft. Microsoft souveräne
00:59:21: Cloud Umgebung, Public Private und so weiter. Was er gesagt hat,
00:59:25: war sehr spannend. Er hat gesagt, also diese,
00:59:28: die kommen ja aus dieser Cloud Welt und machen wir es, machen wir es nicht.
00:59:32: Vor zehn Jahren, weißt du noch, wo jeder gesagt hat, ja, machen wir es,
00:59:34: machen wir es nicht Und die Amerikaner und die Amerikaner und so weiter.
00:59:37: Was ich sagen will, ist, er hat klipp und klar gesagt, dass staatliche
00:59:43: Einrichtungen längst auf dem Trip sind, eben in so eine Azure
00:59:47: Cloud Umgebung nicht nur einzusteigen, sondern schon längst da
00:59:51: sind. Natürlich ist das Thema souveräne Cloud, also sprich
00:59:56: die Daten liegen in Europa, ein Riesenthema.
01:00:00: Gleichzeitig kann man natürlich ein bisschen schmunzeln, wer diese Sache von AWS
01:00:04: mitbekommen hat neulich. Ich glaube, das ging um Atlation.
01:00:07: Nee, nee, das war tatsächlich Cloudflare.
01:00:10: Cloudflare, Aber ist Cloudflare nicht AWS? Nee, nee, nee, nee,
01:00:14: nee, nee. Cloudflare ist ein Netzwerkprovider,
01:00:19: der auch bei vielen Diensten einfach vorgeschalten wird,
01:00:23: um Netzwerkattacken zu vermeiden,
01:00:27: die auch dieses ganze
01:00:31: Thema Bot Erkennung, aber das heißt ja, dass mein Verkehr meiner Daten über
01:00:35: USA dann läuft, weil da ist ein Server ausgefallen. Ja, ich weiß nicht,
01:00:39: ob die auch mittlerweile Rechenzentrum hier haben, aber das hat eigentlich
01:00:43: wieder gezeigt, wie abhängig wir sind. Da ging es jetzt gar nicht darum, dass AWS
01:00:46: ausgefallen ist, sondern ich glaube, haben das nicht letzte Woche tatsächlich diskutiert mit
01:00:51: dem Cloud Flashern. Es ist halt ein Netzwerkdienst ausgefallen und man sieht, wie tief der
01:00:54: verankert ist in tausenden Diensten Und es ging Halt einfach mal ChatGPT nicht. Ich glaube,
01:00:58: wir haben geschrieben, ChatGPT ging nicht. Warum? Weil eben
01:01:01: dieser Netzwerkprovider ausgefallen ist. Ja, aber nochmal,
01:01:05: also Cloudflare kannst du ja nutzen, aber die müssen ja dir einen
01:01:10: Knoten, glaube ich, heißt es in der Netzwerksprache, einen Knoten in deiner Region
01:01:14: anbieten. Sonst geht es ja nicht, Sonst könntest du ja nie Cloudflare nutzen. Also in
01:01:17: Europa kannst du nicht nutzen. Also das muss es ja geben. Aber trotzdem fiel einer
01:01:21: ja aus in USA und dann ging gar nichts. Ja,
01:01:25: also das ist sehr, sehr spannend. Ich muss sagen, diese kurz mal vielleicht
01:01:30: ein, zwei Sätze zu Cloud Souveränität. Ich halte davon gar nichts. Das hat
01:01:33: auch der Microsoft Babo hat das mir auch so ein bisschen übermittelt.
01:01:37: Ich finde, der ist einfach totaler Humbug. Ich denke mir so, wenn jetzt jemand
01:01:42: mich fragen würde, Kurt, welches Unternehmen ist denn,
01:01:45: welches Unternehmen in deiner Welt wäre ein Unternehmen, wo du sagst,
01:01:49: boah, die müssen aber darauf aufpassen. Mir ist kein Unternehmen eingefallen,
01:01:53: wo ich gesagt habe, boah, aber die müssen jetzt darauf aufpassen, dass sie ja cloud
01:01:56: souverän sind und in Europa bleiben zum Beispiel. Mir fällt nichts ein.
01:02:00: Man könnte sagen Bosch, Siemens und so weiter von mir aus,
01:02:03: Aber die sind ja auch zerlegt. Also das sind ja auch nicht ein Unternehmen,
01:02:06: sondern mehrere Unternehmen, also Healtheniers und
01:02:10: was weiß Ich aber stell dir mal, aber stell dir mal trotzdem folgendes
01:02:14: Szenario vor. Ja sag aus irgendwelchen Gründen,
01:02:17: welche auch immer das sind beschließt
01:02:20: Microsoft Office 365 einzustellen von heute auf morgen.
01:02:25: Ja was bedeutet das? Das bedeutet, dass 99 Prozent
01:02:29: aller Unternehmen weltweit, ne weltweit, es gibt ganz viele Länder, die haben das nicht deutschlandweit.
01:02:34: Alle nutzen Microsoft. Alle sagen wir mal 80 Prozent aller Unternehmen sind
01:02:40: im Arsch. Und jetzt frage ich dich wie wahrscheinlich ist das?
01:02:44: Es ist nicht wahrscheinlich, aber ich meine klar, du hast immer, wenn du ein gewisses
01:02:48: Risiko hast du eine, du hast eine Eintrittswahrscheinlichkeit und du
01:02:52: hast einen letztlichen Impact und Impact ist riesig,
01:02:56: aber Eintrittswahrscheinlichkeit halt sehr sehr genau. Genau Und das ist genau wo wir halt
01:03:00: wir Menschen, also ich habe es bei in Seat haben wir so ein Spiel gemacht,
01:03:03: wo Menschen sind in riesigen Abschätzen extrem
01:03:07: schlecht, weil man in seiner eigenen Blase lebt. Das ist die Erklärung,
01:03:11: das ist die eigene Blase. Ich habe auch neulich wieder gehört,
01:03:15: aber Kurt, was passiert, wenn hier die Bude abraucht?
01:03:19: Ich habe gesagt ja und jetzt dann Ja aber dann ich habe
01:03:24: gesagt, wenn die Bude abbr nach Hause oder also da brauchen wir jetzt nicht lange
01:03:27: drüber diskutieren. Ja, aber was ist, wenn der Server in Frankfurt explodiert und
01:03:31: dann von AWS Ich hab wo ist denn hin?
01:03:35: Ja, es gibt ja irgendwie was Es gibt ja Stackit es gibt ja SAP Cloud.
01:03:40: Habe meinem Buddy von Microsoft nachgefragt. Ich habe gesagt,
01:03:44: hey SAP Cloud hat er gesagt, ja, aber wir betreuen die SAP Datenzentren.
01:03:49: Das passiert alles auf Azure. Ich so, okay,
01:03:52: okay. Dann haben wir gefragt, ja wie ist AWS und so weiter? Ja, also alle,
01:03:58: sogar die Cloud Provider, die wir so benennen, basieren alle auf
01:04:02: Techniken, die irgendwo wieder zusammenhängen. Richtig.
01:04:06: Das wird dann oft transparent bei eben du hast einen gewissen Ausfall in irgendeinem Knoten
01:04:11: von AWS und dann siehst du mal, wo überall die Lichter ausgehen. Genau, genau.
01:04:14: Denkt ihr denn wirklich, dass alle, also denkt ihr, wir sind tollpatschig,
01:04:19: wenn wir Software entwickeln, wenn wir Produkte auf den Markt bringen und alle anderen USA,
01:04:23: die sitzen, keine Ahnung, sind super intelligent, forget it.
01:04:27: Die wissen selber nicht, wie das verdrahtet ist. Ich kann
01:04:31: euch ebenfalls auf die Folie schreiben, ich versichere euch da
01:04:35: passiert gar nichts. Verstehst du was ich meine? Also wir vergessen manchmal,
01:04:39: dass alles einfach nur Menschen sind, um Gottes Willen. Wahnsinn.
01:04:44: Christian, jetzt gucke ich gerade,
01:04:49: oh ja, wir haben eine gute Stunde.
01:04:53: Hast du noch News? Hast du noch irgendwas gelesen, gehört, wo du sagst spannend,
01:04:58: sollten wir heute unbedingt loswerden? Ja, ich hätte tatsächlich gut, ich glaube,
01:05:02: das können wir auf nächste Mal verschieben. Ich habe ja diesen
01:05:06: intensive Kurs von Google Map gemacht, echt interessante Learnings
01:05:10: mitgenommen. Lass uns das nächste Mal diskutieren. Aber einfach weil es so aktuell ist,
01:05:14: würde ich noch, weil es auch zu Nanobanana Pro passt,
01:05:17: noch kurz ein neues Modell vorstellen. Tatsächlich auch interessant
01:05:21: aus Deutschland, eines der wenigen deutschen KI Modelle, generativen KI
01:05:25: Modelle, die wirklich vorne mitspielen und zwar Flux hat sein
01:05:29: neues Modell rausgebracht, also im Bildgenerierungsmodell.
01:05:34: Flux war, ich weiß gar nicht, wann die das erste Mal rausgekommen sind,
01:05:38: schon ein Gamechanger und haben jetzt mit Flux 2 nachgelegt.
01:05:42: Ist tatsächlich, ich glaube in
01:05:47: der Liga wie Nanobanana schnell
01:05:51: kann Text erzeugen, kann auch wirklich den Kontext behalten,
01:05:55: wenn es um Bild to Bild Generierung geht,
01:05:59: hat auch ein Schnellmodell, das schneller geht und wenn
01:06:05: es in Richtung Cloud Souveränität wieder geht, haben auch wie beim ersten Modell
01:06:09: eine Entwicklungsversion mit Open Weight, das heißt, die kannst du
01:06:14: dir runterladen und auch lokal betreiben, das heißt, wenn du also lokal betreiben
01:06:17: oder trainieren für für ein entsprechendes Retraining
01:06:21: benutzen, das heißt, wenn du eine datenkritische, eine sicherheitskritische Anwendung hast
01:06:25: und sagst okay, du brauchst ein State of the Art Modell, dann ist es eines
01:06:29: der wenigen Modelle, die wirklich vorne mitspielen, die du auch nutzen kannst
01:06:32: bzw. Auch trainieren kannst lokal in deiner in deiner Infrastruktur,
01:06:36: wenn du GPU rich bist, wie man so schön sagt, was ich nicht bin
01:06:40: leider. Wahnsinn. Wahnsinn. Christian, wir werfen ja mit den Begriffen um
01:06:44: uns herum, also wir reden auf jeden Fall über ich we
01:06:48: den AI Intensive Course, ich glaube so hieß er,
01:06:52: ne? Ich meinte eher was diese Banana ist von
01:06:57: Google. Gemini ist das ein, ist auch von Google Bildgenerierung.
01:07:01: Gemini ist letztendlich das oder die Gen Plattform
01:07:06: von Google, also praktisch das ChatGPT halt von Google.
01:07:09: Okay Und genau Flux, wie gesagt,
01:07:13: dieses Bildmodell aus dem Schwarzwald Deutschland, made in Germany und
01:07:17: spielt vorne mit. Sehr cool, sehr cool, toll. Zu Cloud noch
01:07:22: ein Thema, weil das immer wieder aufkommt, oder?
01:07:25: Thema Cloud und wo gehen wir denn hin und gehen wir woanders hin und machst
01:07:29: denn und das und das. Ich sage euch eins, der Christian und ich haben jetzt
01:07:32: mal eine Erfahrung gehabt, das ist schon Jahre her. Ich bezweifle, dass sich das geändert
01:07:36: hat, weil alle anderen laufen ja auch Vollgas. Wir haben mal
01:07:40: unseren Weg damals mal versucht mit einer deutschen Cloud,
01:07:43: als wir gemeinsam noch gearbeitet haben, weiß noch, wie wir verzweifelt sind.
01:07:47: Wir sind komplett verzweifelt, banalen Dingern, irgendwelche Container,
01:07:51: Docker Container zu hosten. Wir sind einfach verzweifelt. Und ich sag's noch
01:07:55: mal, da kommen wir nicht drumrum dafür. Das ist, das sind wir einfach nicht.
01:07:59: Ich sag's einfach auf den Punkt. Deswegen werden wir nie aus
01:08:04: dieser Blase rauskommen. Wir werden auch, wenn da oben drüber ein Etiketten
01:08:08: anderer ist, ist unten drunter irgendwas, was in US Amerika betreut wird
01:08:13: oder gestaltet worden ist oder entwickelt worden ist oder weiterentwickelt wird.
01:08:17: Das ist ein guter Punkt, den du sagst. Was mir da gerade einfällt, ist,
01:08:20: dass irgendwas irgendwo in der Schicht unten drunter ist, was mittlerweile ja
01:08:25: passiert ist. Das ist eher philosophisch, egal ob es jetzt Software ist
01:08:28: oder Cloud, dass es so viele Abstraktionsschichten gibt.
01:08:32: Das heißt, wenn du von Cloud sprichst, beispielsweise nutzt jetzt einen, du nutzt
01:08:37: jetzt einen, weiß ich nicht, ein Kubernetes
01:08:41: in der Cloud oder eine Datenbank, da stecken
01:08:45: so viele Abstraktionsschichten darunter. Ganz ganz unten hast du irgendwo eine physikalische
01:08:49: Kiste stehen, Server, der steht in irgendeinem Raum, der ist klimatisiert, der ist
01:08:53: abgeschlossen, der ist vielleicht mit gutem Brandschutz versehen,
01:08:57: Sicherheit aussenrum, dass da keiner rein kann. Und darauf gibt
01:09:01: es dann eine Virtualisierungsschicht, da gibt es eine Virtualisierungsschicht, dann gibt
01:09:05: es dann vielleicht noch eine zweite Redundanz obendrauf, dann gibt es einen Managed Service und
01:09:09: keine Ahnung, gibt es noch eine Web Oberfläche, wo du dich einloggen kannst
01:09:13: und so weiter. Also du hast mittlerweile so viele Abstraktionsschichten,
01:09:17: wo du am Schluss eigentlich gar nicht mehr weißt, wo bist du eigentlich, wo bist
01:09:20: du zu Hause, wo läuft denn dein Dienst gerade? Das Ganze noch georedundant,
01:09:24: Das heißt, du hast irgendwie eine MongoDB oder eine Postgres die Geo redundantes
01:09:28: mit zwei. Also das heißt am Schluss machst du eine Datenbankabfrage
01:09:33: und du weißt am Schluss gar nicht mehr, wo liegt denn das Bit auf welchem
01:09:36: Server. Also ja, man kann es rausfinden, aber was ich sagen
01:09:40: möchte so viele Abstraktionsschichten und betrifft tatsächlich auch moderne Programmiersprachen.
01:09:44: Am Schluss musst du irgendwie Maschinencode generieren, aber da gibt es VM hier,
01:09:49: dann gibt es noch virtuellen Container da und nochmal
01:09:53: gepackt hier und nochmal kompiliert und dann am Schluss ein Docker Container und der in
01:09:56: einem kombiniertes läuft. Also so viele Schichten, dass es mittlerweile echt
01:10:00: kompliziert ist das zu verstehen. Jetzt sind wir echt abphilosophiert,
01:10:05: aber du hast richtig Lauf.
01:10:08: Ich habe dich gar nicht mehr angeschaut gesehen wie du kurz eingenickt
01:10:12: hast. Ich hab kurz mal kurz mal war ich mal im Paralleluniversum hin und wieder
01:10:16: zurück, habe mich selbst verloren.
01:10:20: Spannend. Ich habe noch vielleicht mal
01:10:25: Christian, vielleicht fällt uns noch gegen Ende mal ein zwei lustige Stories ein,
01:10:28: das wäre ganz gut. Jetzt haben wir die Folge ja wirklich brutal vollgepackt mit AI
01:10:32: Themen. Ich hoffe mal, dass den unseren Zuhörern zuhören. Das gefällt
01:10:36: trotzdem haben wir immer wieder was Lustiges dabei. Ich nicht heute heute ja
01:10:41: doch, du hast heute Excel Story mal ausgepackt und paar andere lustig dieses dieses Traumatisieren.
01:10:47: Okay, ich wollte nur Info loswerden.
01:10:51: Ich war wie gesagt in dieser Schulung. Ich bringe jetzt auch zu den nächsten Folgen
01:10:55: mal paar Ideen mit. Die Dinge, die wir da gelernt haben und die wir da
01:10:58: machen war super. Erst mal eine Sache
01:11:03: war interessant, wenn du in so eine wirklich
01:11:07: hochdotierten und sehr anspruchsvollen Schulung reingehst. Also die Mindestanforderungen sind
01:11:11: sehr hoch. Ich bin da auch nur deswegen reingerutscht, weil ich ja
01:11:15: Glück im Unglück sehr früher angefangen habe selbstständig zu sein und dann
01:11:19: hast du natürlich mit 38 hast du da 15 Jahre Berufserfahrung.
01:11:24: Das ist die Mindestvoraussetzung die sagen du musst 15 Jahre vorweisen können,
01:11:28: dass du da mitmachen kannst und noch paar andere Sachen. Okay und die Kohle musst
01:11:32: du auch noch zahlen, die wollen auch ein bisschen Geld. So was ich aber sagen
01:11:35: wollte ist geht immer davon aus, das ist wieder mein
01:11:38: Learning, das sind alles nur Menschen. Ich bin dahin.
01:11:41: Das sind alles hochrangige Tiere ohne Wenn und aber. Okay,
01:11:45: was weiß ich. Also wenn ihr paar Namen hören wollt, ich habe
01:11:50: letztens erst gejoked, der singaporeanische
01:11:56: Botschafter in Frankreich war mit
01:12:00: dabei, der Racing Chef
01:12:04: von Saudi Arabien war dabei,
01:12:07: Logistikchef über Overall Logistik in
01:12:11: Saudi Arabien, das ist eine Dame, war dabei.
01:12:15: Was habe ich noch? Lauter solche, also wirklich nicht nur
01:12:19: Saudi Arabien, jetzt nicht falsch verstehen. Toyota,
01:12:22: Honda Chef Malaysia war dabei und Toyota.
01:12:25: Also genau, Honda Chef Malaysia, Toyota Chef auch
01:12:30: war dabei oder Toyota, einer der Menschen Director sind meistens
01:12:33: mehrere, waren dabei, also hohe Tiere. Ich sage euch was, alle haben die
01:12:37: gleichen zehn Probleme, die wir als Typen kennen.
01:12:41: Der eine redet nicht viel, der andere zu viel,
01:12:45: kümmert sich zu viel. Wirklich, haben wir einen gehabt, dann gibt es
01:12:49: den anderen wiederum kümmert sich nicht um sein Team. Dann gibt es einen,
01:12:53: den mag der Chef nicht. Dann gibt es die,
01:12:56: die werden von allen gemocht, haben super Bewertungen. Wenn du mit denen
01:13:01: sprichst, haben die ganz andere Probleme. Da geht es zum Beispiel darum,
01:13:05: die nehmen sich für sich keine Zeit, OK, die kämpfen
01:13:09: mit sich, wie sie sich für sich selbst Zeit nehmen können und klammern sich
01:13:13: an Dinge, zum Beispiel Kinder oder was weiß ich was.
01:13:16: Und du hast auch ein anderes Beispiel, was auch sehr sehr sehr
01:13:20: prägnant war. Ich fand das, ich finde das Kennenlernen dieser Menschen einfach super spannend.
01:13:25: Zum Beispiel auch Typen wie du, die mit
01:13:29: einem wenn er keinen Bock auf das Gespräch gerade hat, ignoriert er dich einfach.
01:13:34: Und noch mal, das ist eine Schulung, nicht so einfach so hey, ich gehe jetzt
01:13:38: da mal hin, habe hier meine 350 bezahlt. Also die müssen da richtig hinblättern,
01:13:41: die Unternehmen, also es ist kein Scherz, richtig hinblättern.
01:13:44: Und dann denke ich mir,
01:13:48: einige haben echt ein Change vor sich, wo man sagt, okay, das ist noch
01:13:52: in dieser plausiblen Welt. Also Change ist für jeden schwierig,
01:13:56: aber es ist plausibel,
01:14:00: wenn jemand zum Beispiel engere Kommunikation und was weiß ich besser, besser Netzwerken
01:14:04: soll und so weiter. Das sind so Sachen, wo man sagt, ah OK, spannend,
01:14:06: sich besser werden. Andere müssen sich richtig knacken,
01:14:10: weil die müssen erstmal normal werden. Aber was
01:14:14: ich, also die Hauptmessage ist, das sind alles Menschen.
01:14:18: Alles Menschen. Ich weiß noch den einen,
01:14:22: Pass auf, also wir haben so eine, wir haben, also wir haben wirklich sehr krasse
01:14:25: Profs gehabt. Einer davon war nämlich jemand, der unglaublich begabt und
01:14:30: bekannt war und mehrere Bücher geschrieben hat über Verhaltenspsychologie zum Beispiel und
01:14:34: Verhalten, aber auch Mimik, Gestik und Vortragen
01:14:40: Und in dem Zuge haben die ihn, haben sie
01:14:44: ihn eher genommen und haben den
01:14:50: hergenommen. Also der Prof. Hat einer der Kollegen
01:14:54: daher genommen, der folgendes nicht konnte oder folgendes hat er gemacht, das war super
01:14:58: spannend, er einen Vortrag gehalten und hat sich sozusagen bewegt vorne
01:15:02: und hat so ein klassisches John Wayne gemacht. John Wayne,
01:15:05: vielleicht kennst du es nicht, aber wenn jemand zum Beispiel einen Vortrag hält, die Hände
01:15:09: benutzt während des Vortrags und dann so, ich sag
01:15:13: mal, stell dir mal vor, jemand, der mit beiden Händen so eine Pistolenbewegung macht und
01:15:17: auf den Leuten zeigt, dann sieht es so aus, als ob er auf die Leute
01:15:20: schießt. Dann hat der Prof. Gesagt, du musst aufhören auf die Leute zu schießen.
01:15:25: Alle so was vorhin zusammenbrochen gibt
01:15:29: es auch auch der betreut, keine ahnung, ich glaube 2000 Mitarbeiter
01:15:34: und betreue keine 4,8 Milliarden. Also was ich
01:15:38: da sagen will ist, die haben alle struggle, alles Dinge,
01:15:42: die wir kennen, kann nicht gut netzwerken, vielleicht nicht nahbar zu nah,
01:15:46: laber zu viel, labert zu wenig,
01:15:49: keine Ahnung, schießt ab. Leute sind halt einfach Menschen,
01:15:52: ja, sind einfach Menschen und die da wirklich dahin geschickt worden sind,
01:15:56: ich würde sagen, so 20 Prozent haben sich selbst hingeschickt, also teilweise selbst finanziert,
01:16:01: zur Hälfte Unternehmen, die andere Hälfte von Unternehmen hingeschickt
01:16:05: und die Gründe übrigens, falls euch interessiert, so ein AMP Advanced
01:16:09: Management Programm, da wirst du hingeschickt zum Beispiel wenn es schon feststeht,
01:16:13: dass du in drei Monaten CTO wirst, CFO wirst,
01:16:16: CEO wirst, dann ist das sozusagen für das Top Management
01:16:20: die Verifizierung. Okay, wenn der Kerl oder die Dame wieder zurückkommt,
01:16:24: spricht unsere Sprache. Okay, also klar, Tag, Tag, Tag,
01:16:28: Tag, Tag, du bist da, los geht's. Also das
01:16:33: war mal wieder mein Learning und ich habe dir heute ja gesagt,
01:16:37: ich habe, Christian, ich habe jetzt so viele Leute um mich herum kennengelernt, aber nicht
01:16:40: in der Schulung, aber in der Welt, wo wir leben im Business.
01:16:44: Also wenn die Business machen
01:16:48: können, dann müssen wir uns irgendwann echt was überlegen,
01:16:52: aber glaube ich schon mehrmals gesagt, da müssen wir uns echt irgendwas überlegen.
01:16:56: Aber gut, soviel zu Leadership in der nächsten Folge
01:17:00: packe ich noch so paar Themen rein. Ich weiß nicht, ob ich Phoenix Encounter reinbringe,
01:17:04: ist auch super spannend, glaube ich. Das bin ich rein. Und dann habe ich auch
01:17:07: noch ein paar Themen, die ich im Harvard Business gelesen habe, die super spannend sind.
01:17:10: Da geht es wieder um Leadership und Führung und was das bedeutet. Gibt es wieder
01:17:13: tolle Studien und mit steht auch wieder einiges.
01:17:16: Genau, in diesem Sinne. In diesem Sinne
01:17:20: würde ich sagen, Spaß gemacht. Wie immer. Wie immer. Den Zuhörern haben heute echt
01:17:25: brutal viel, glaube ich. Da haben wir wirklich geschossen. Jeder ist eins,
01:17:29: wenn man eskaliert.
01:17:33: Ja, ist aber, glaube ich, gut geworden. Und wie gesagt,
01:17:37: wir freuen uns alle, wenn ihr uns eine Nachricht schickt auf LinkedIn
01:17:41: oder wo auch immer, dass wir wissen, okay, wir werden echt zugehört und das nicht
01:17:46: irgendwelche Bots aus China, die unsere Sprache analysieren.
01:17:48: Echte. Wir sind echt. Genau. Ansonsten vielen
01:17:52: Dank und bis zum nächsten Mal. Ciao.