#016 | CHLOE, Albanien & NotebookLM

Shownotes

00:00:01 Intro - Episode 16 00:01:00 KI-Explosion: Täglich neue Modelle 00:01:30 Das Internet-Gefühl der 90er ist zurück 00:02:00 Glückskeks-Weisheiten für beide 00:03:30 Rückkehr vom INSEAD Advanced Management Program 00:04:00 KI in der Reproduktionsmedizin 00:04:30 Chloe: FDA-zugelassenes KI-Tool für Embryo-Auswahl 00:05:30 Trainiert auf Millionen Embryo-Outcomes 00:06:00 Zellteilung in Echtzeit analysieren 00:06:30 Könnte Körpergröße, Intelligenz, Geschlecht vorhersagen 00:07:30 Ethische Grenzen diskutiert 00:08:30 EU AI Act: Hochrisiko-Anwendung 00:10:00 NotebookLM: Kurt's Lieblingswerkzeug 00:11:00 Podcast-Generierung aus Dokumenten 00:12:30 Zwei KI-Moderatoren im natürlichen Dialog 00:14:00 Interactive Feature: Hand heben und Fragen stellen 00:15:30 Vergleich mit "Deutschland spricht" auf BR 00:17:00 Funktioniert nur auf Englisch (noch) 00:18:00 Gemini Pro Abo: 25$ mit allen Features 00:20:00 Warum NotebookLM überzeugt 00:22:00 Spotify-Ökonomie: 0,003 Dollar pro Stream 00:23:30 Christian schätzt richtig: Größenordnung 0,001 00:25:00 Lateinamerikanischer Spotify-Betrug mit KI-Songs 00:27:30 Geschäftsmodell: Tausende Songs, Bots abspielen lassen 00:30:00 Moralische Ambivalenz diskutiert 00:32:00 Content-Apokalypse beginnt 00:33:00 LinkedIn-Infografik-Flut dank NanoBanana 00:35:00 Faceless YouTube-Kanäle 00:36:30 3.000 Podcast-Episoden pro Woche 00:38:00 Content wird zur Massenware 00:39:00 Albanien: Weltweit erster KI-Minister 00:40:00 KI gegen Korruption in Verträgen 00:42:00 Deepfakes: 96% pornografisch 00:44:00 Taylor Swift, Scarlett Johansson 00:46:00 Gefälschte CFO-Videokonferenzen 00:48:00 Millionenbetrug bereits Realität 00:50:00 ChatGPT als Therapeut: Menschen teilen Geheimnisse 00:52:00 Google rockt: NanoBanana Pro 00:54:00 Kurt wechselt von ChatGPT zu Gemini 00:56:00 Flux 2: Deutsches Bildmodell aus Schwarzwald 00:58:00 Cloud-Souveränität: Warum Kurt das für Humbug hält 01:00:00 Christians Excel-Trauma: 12 Reiter, 5 MB Template 01:02:00 Confluence-Tabellen: Noch schlimmer als Excel 01:04:00 Wegwerfsoftware-Konzept erklärt 01:06:00 INSEAD Advanced Management Program 01:08:00 Toyota-Directors und Milliarden-Budgets 01:10:00 Die gleichen zehn Probleme bei allen 01:12:00 John Wayne-Moment: Pistolen-Gesten 01:13:30 "Sie müssen aufhören zu schießen" 01:15:00 Kollektives Gelächter im Raum 01:16:00 20% Eigenfinanzierung, Rest vom Unternehmen 01:17:00 AMP als Verifizierung vor CEO-Rolle 01:18:00 Ausblick: Phoenix Encounter, Harvard Business Review 01:19:00 LinkedIn-Kontaktaufnahme erwünscht 01:20:00 Verabschiedung

Transkript anzeigen

00:00:01: So herzlich willkommen Mensch mal

00:00:05: wieder ich weiß gar nicht wie viele Folge ist das jetzt 27 12 keine

00:00:10: Ahnung 3000 fangen wir mit 3000 ich glaube 16 oder 17 also herzlich

00:00:14: willkommen an alle unsere Zuhörer mit

00:00:19: mir wieder dabei der einzig wahre Christian Heining wer sonst

00:00:24: und und Kurt that's me wir

00:00:29: haben super Themen dabei ich war vier Wochen weg da

00:00:33: werde ich Stück für Stück in den nächsten Folgen ein paar Themen auspacken ich

00:00:38: glaube wir haben heute echt viele KI Themen ja ich war ich war nie weg

00:00:41: und ich glaube die letzten zwei Wochen ist wieder so viel passiert gefühlt

00:00:45: jeden Tag irgendwie eine Neuigkeit wo irgendein neues Modell eine neue Technologie

00:00:50: auf den Markt kommt explodiert und Gefühl

00:00:55: kommt man gar nicht mehr mit ich weiß nicht ich weiß nicht wie in Anführungszeichen

00:00:58: normale Menschen die KI Welt gerade erleben aber für mich ist gefühlt

00:01:02: jeden Tag irgendwo eine Explosion dabei hätte nie gedacht dass ich jetzt mit 38 Jahren

00:01:06: noch mal so ein nerdiges Gefühl bekomme und wir sind mal wieder so weit es

00:01:10: ist wie damals das Internet das Internet ja ich weiß noch da war mal was

00:01:14: ja erste Mal utorrent runtergeladen Musik runtergeladen

00:01:18: auf 28 Minuten ich werde nie vergessen mein Vater hat

00:01:22: mich fast umgebracht ich habe da so ein Lied runtergeladen über sein Handy Rechnung

00:01:27: kam 500 Mark oder sowas damals wenn ich mich nicht irre und

00:01:32: dann waren alle so Erklärungsnoten ich dachte mir okay mein Ende ein

00:01:38: Lied runtergeladen das ist jetzt mein Hände weißt du das Lied war hoffentlich gut und

00:01:41: du hast es bestimmt du hast MP irgendwo oder Ja weißt du das ist ein

00:01:43: türkischer Vater du suchst echt nach jeder Ecke in der Wohnung wo du dich verstecken

00:01:48: kannst Für einen Moment war ich kurz mal so ein Ding so ein X man

00:01:52: ich habe mich kurz mal weggefühl wieder zurück Christian bevor wir

00:01:56: loslegen ich habe was mitgebracht ja schieß los ich

00:02:00: habe mitgebracht für Christian Glückskekse Christian

00:02:05: mach mal auf fahren wir doch mal mit so eine Glückskeksnachricht an Reinrascheln hier für

00:02:09: die Hörer ja reinrascheln wie heißt es ASMR heißt das glaube ich oder

00:02:12: ASMR heißt das genau so.

00:02:26: Sehr guter Spruch sogar auf multilingual Deutsch

00:02:30: und Englisch. Also was hast du soll

00:02:35: ich zuerst? Okay, bei mir steht erstmal

00:02:39: auf Englisch. Die deutsche Übersetzung ist übrigens lustig, ich lese sie gleich.

00:02:43: Lucky stars, growing influence and more independence.

00:02:48: Also die Sterne stehen mir gut oder günstig

00:02:54: steigender Einfluss und

00:02:58: mehr Unabhängigkeit. Und die deutsche Übersetzung wiederum hier günstige

00:03:03: Sterne, wachsender Einfluss und mehr Unabhängigkeit. Ja,

00:03:07: passt auch. Kann man auch nehmen. Was steht bei dir? Setze deine Talente ein.

00:03:12: Kurz und knackig. Use your talents. Sehr gut. Das ist

00:03:16: ein Zeichen, Christian Das ist ein Zeichen. Müssen wir nur wissen, welche sie sind.

00:03:20: Ja, wenn man das nur wüsste. Also ich

00:03:24: bin jetzt zurück von meinem Advanced Management Programm inseat

00:03:29: Fontin Bleu und jetzt habe ich währenddessen aber auch schon

00:03:33: gemerkt, KI Welt geht total ab. Christian, du hast

00:03:37: ein paar Themen mitgebracht. Ich habe bisschen was mitgebracht. Ich habe paar lustige Themen auch,

00:03:40: aber ich würde sagen, wir fangen mal mit etwas an und

00:03:44: um KI, was uns beiden Spaß macht.

00:03:48: Jetzt bin ich mal gespannt, was kommt also uns nicht zusammen, aber für

00:03:52: uns alleine und zwar Koitus.

00:03:57: Okay, da würde ich jetzt gerne mal die Pointe wissen, wie KI

00:04:01: zusammenhängt. Ja, ja, ja, ich habe jetzt und zwar folgendes Koitus.

00:04:07: Es geht um Embryologie,

00:04:12: heißt das glaube ich. Also wenn man Kinderwunsch hat, wenn man Kinderwunsch

00:04:16: hat, dann geht man zum Spezialisten und dann tun die ihr Bestes,

00:04:20: dass man halt rausfindet und das machen meistens Profi

00:04:24: Ärzte in diesem Fachgebiet und was die machen ist durch

00:04:27: optischen, durch Durchsicht in wie heißt denn das?

00:04:31: Also durch Mikroskop oder Mikroskop, durch eine sehr,

00:04:35: sehr tiefen Blick, nenne ich jetzt mal in meiner meiner schwachen Sprache

00:04:39: versuchen die rauszufinden, welches dieser Embryonen

00:04:44: am fleißigsten sind und schnappen sich die und

00:04:48: befruchten dann so die Kurzversion, ne? So das

00:04:52: passiert aber wirklich auf Erfahrung,

00:04:56: Fachwissen der Ärzte. Okay, also tiptop

00:05:00: für AI eigentlich. Also hat sich Es gibt

00:05:04: ein neues Produkt, heißt Chloe C H L O E und

00:05:09: das ist ein AI embryologisch, wenn ich das hier richtig ablese aus

00:05:12: meinem Dokument. Genau. Und die haben letztendlich ein Tool entwickelt,

00:05:17: ein KI Tool zur Embryo Bewertung. Bewertung heißt in dem Fall,

00:05:20: welche sind geeigneter, fleißiger und ermöglichen

00:05:26: eine höhere Chance, dass man auch schwanger wird,

00:05:29: welche weniger natürlich

00:05:34: diskussion wenn wir darüber diskutieren müssen dann geht es halt los Naja

00:05:38: die Frage ist immer würdet ihr als potenzielle Eltern Chloe vertrauen

00:05:42: weil es eine AI ist was ist wenn ich dann als Arzt sag hey herzlich

00:05:47: willkommen bei uns es macht bei uns unser Tool oder

00:05:50: hat man die Erwartung für diesen Preis kostet alles auch Geld zu sagen nee das

00:05:55: muss der Arzt selber machen weil wir ja wieder in dem Bereich sind also jetzt

00:05:58: mal noch nicht so ganz weit aber wir sind so in dem Bereich wo dann

00:06:01: auf einmal der Arzt in der Funktion wie wir es bisher hatten nicht mehr so

00:06:05: interagiert wie wir es uns wie wir es erwarten weil wir es nicht anders

00:06:09: kennen ich glaube da sind wir mittlerweile in einer Zeit angekommen

00:06:13: wo genau diese dieser Übergang stattfindet von

00:06:18: menschlicher Expertise wo Experten wirklich über Jahre lang

00:06:21: einen Beruf eine bestimmte Fähigkeit erlernt haben

00:06:25: und man ihm deswegen vertraut Ärzten und auf

00:06:30: der anderen Seite werden mittlerweile Computersysteme einfach so mächtig um

00:06:35: wirklich auch jahrelang erlerntes Wissen nicht nur

00:06:39: gleich gut zu machen sondern besser zu machen Bestes Beispiel ist Krebserkennung

00:06:43: in irgendwelchen radiologischen Untersuchungen Röntgenbildung Untersuchungen etc.

00:06:47: Gibt es Untersuchungen dass die Ergebnisse von künstlicheren

00:06:50: besser sind als das was ein Mensch macht und gut ich bin jetzt kein Experte

00:06:56: in embryonale Auswahl aber auch da klar natürlich

00:06:59: hat man als die Eltern glaube ich sind oder die werdenden Eltern sind sicherlich

00:07:05: kann mir vorstellen einer sehr verzwickten Lage und wollen natürlich

00:07:09: da auch Expertise haben aber am Schluss wenn sich herausstellt dass eine

00:07:13: Maschine das besser macht why not und ich glaube was

00:07:17: viel wichtiger ist es ist gut ist es schlecht ist die Frage

00:07:21: nach Ethik Frage nach ich sage

00:07:25: nur Stichwort in Europa den EU AI Act gibt es ja

00:07:29: gewisse Klassifizierungen wie Anwendungen KI Anwendungen zu klassifizieren sind und

00:07:33: ich glaube dass das Thema Embryonalauswahl ist höchste Stufe es geht

00:07:37: um Leben und Tod gut kann man jetzt natürlich noch mal ethisch

00:07:41: bewerten ist das schon ein Lebewesen weiß ich nicht aber

00:07:45: wie glaube ich wir sind hier eher in einer Hochrisiko in der kritischen Anwendung das

00:07:50: zumindest Europa bin mir sicher sprichst von USA mit

00:07:54: dieser Anwendung da hast du in Europa Stand heute keine Chance ja wir

00:07:57: warten ja immer darauf dass die Amerikaner oder die Asiaten wobei ich

00:08:02: sagen muss eher die USA es erstmal vormacht,

00:08:05: damit wir uns von der Ferne sozusagen daran gewöhnen können. Oh, das geht ja.

00:08:09: Na dann machen wir es auch. Lass mir ein paar Fakten mal

00:08:12: dir geben, dass man mal so ein Gefühl dafür bekommt. Das wird tatsächlich eine ethische

00:08:16: Angelegenheit, weil, also ich habe jetzt das sehr grob beschrieben in meinem laienhaften

00:08:20: Sprache, aber kurz mal ein paar Fakten. Also dieses Chloé bedeutet

00:08:25: ausgeschrieben, cultivating human life through optimal embryos.

00:08:30: Also da hat sich jemand nach ein paar Bierchen ein paar Bayreuther ausgetobt.

00:08:34: Jedenfalls ist es ein FDA zugelassenes KI Tool zur Embryo Bewertung.

00:08:38: FDA ist eine Association Food

00:08:42: and Drug Association, also eine Food and Drug, die letztendlich die

00:08:46: amerikanische, also ist zwar Food, aber ich denke auch

00:08:51: Medizinprodukte werden da entsprechend zertifiziert und sind ziemlich harte

00:08:56: Nummer. Also da FDA zertifiziert zu werden, ist eine

00:09:00: hohe Kennzeichnung. Man muss vielleicht eine kleine Klammer setzen. Wir sind jetzt

00:09:05: gerade in der Zeit in USA, wo einiges möglich ist.

00:09:08: Vielleicht ist das auch ein Grund dafür.

00:09:12: Interessant ist folgendes. Beste Zeit

00:09:16: für sowas eigentlich. Trainiert auf Millionen Embryo Outcomes.

00:09:19: Analysiert die Zellteilung in Echtzeit, also nicht

00:09:23: nur optischart, sondern die gucken auch, wie sich das bewegt, wie sich das entwickelt und

00:09:27: so weiter und so weiter in Echtzeit. Ich meine, wir sind ja Zeit.

00:09:36: Der Cody Fee ist ein Klaus Wiemer, ich kenne jetzt sehr

00:09:41: deutsch, klingt nach einem sehr deutschen oder Weimer wegen der Uroper wie beim Trump.

00:09:47: Genau. Und sagt folgendes, und das ist jetzt auch wieder interessant, könnte wieder ein sehr

00:09:51: deutsches Phänomen sein. Embryologen verbringen 40 Prozent

00:09:55: ihrer Zeit mit Papierkram, also letztendlich

00:09:59: wahrscheinlich ausfüllen, analysieren, gucken, tralala sowieso die

00:10:04: Alternative, die es bisher gab oder gibt es PGT, das heißt

00:10:08: zwei Wochen tausende Dollar, zeigt nur Chromosomen an,

00:10:12: Chromosomenzahl, also wesentlich weniger Informationen.

00:10:17: Wenn du diese Zellteilung analysieren kannst,

00:10:20: haben die folgendes festgestellt. Und zwar,

00:10:24: und zwar, jetzt kommen wir zu der ethischen Frage,

00:10:29: es wäre möglich, mit der gleichen Technologie

00:10:34: Körpergröße, Intelligenz und Geschlecht vorherzusagen.

00:10:37: Wow. Das heißt, du nimmst Einfluss auf wirklich auf die,

00:10:41: Ja, du machst eine Selektion. Also das,

00:10:45: was ich gesagt habe, du bist in wirklich eine Hochrisikoanwendung. Ich muss dazu noch

00:10:49: mal kurz eine eigene Story erzählen. Einer meiner, als ich in Fort Blömer,

00:10:53: das ist jetzt ein purer Zufall, dass es da reinpasst. Wir haben das Thema gehabt

00:10:56: mit Bestimmung des Geschlechts und in Saudi Arabien ist das heute schon möglich.

00:11:01: Du kannst das Geschlecht des Kindes definieren oder bestimmen.

00:11:06: Bestimmen, Wahnsinn. Ich saß daneben. Bestimmen kannst du

00:11:10: es ja auch bei uns, aber wahrscheinlich dort sehr früh.

00:11:13: Also er hat gesagt, Story war,

00:11:16: also ich kann es ja sagen, der Munir, schöne Grüße,

00:11:21: wenn er Deutsch versteht mittlerweile glaube ich nicht, oder Zuhört.

00:11:26: Interessant. Er gesagt, er hatte glaube ich gesagt vier Söhne oder

00:11:30: drei Söhne und dann wollten die eine Tochter und dann war es Mädchen. So ein

00:11:34: Zufall. Nein, nicht Zufall, sondern genau, die haben es bestimmt tatsächlich.

00:11:38: Du meinst mit bestimmen meinst du beeinflussen? Ja, Ach so,

00:11:42: ja, die haben das beeinflusst. Also die haben gesagt, die wollen jetzt eine Tochter

00:11:46: und dann dachte ich und ich saß daneben wie so ein deutscher Bauer,

00:11:50: so ein Depp aus Hacksdorf, nichts gegen Hacksdorfer oder so ein alter,

00:11:54: so ein Kenner Bauer, weißt du, ich hab Nein, das ist nicht möglich,

00:11:58: das können sie ja nicht machen, Sowas gibt es nicht. Doch gut,

00:12:02: also Saudi Arabien gibt es es. Vielleicht nutzen die auch die Chloe Lösung bereits.

00:12:06: Ja, mit Sicherheit. Also übrigens, wenn ihr mehr über Chloe wissen

00:12:09: wollt, dann gebt ein Chloe und ein MIT, da gibt es einen riesen

00:12:13: Artikel darüber. Ist super spannend. Und wie gesagt, die ethische Frage ist dann

00:12:17: eben, oh, wenn das dann geht,

00:12:20: wo zieht man dann die Linie? Also was ist dann so

00:12:24: ethisch? Was ist nicht ethisch? Vertrauen wir dem Ganzen? Und es

00:12:28: gibt ja auch eine, wie sagt man,

00:12:32: wer trägt dann Risiko? Also wir reden ja gerade von einem Versuch

00:12:35: letztendlich jemand möchte schwanger werden, man kann Embryonen testen, das könnte man dann einpflanzen.

00:12:40: Was ist, wenn das nicht funktioniert? Ein paar Euro kostet das ja trotzdem

00:12:43: noch. Und da ist die Frage, okay, wer haftet?

00:12:48: Ja, super, super Punkt. Also interessanter Punkt.

00:12:51: Ich fand es sehr, sehr spannend. Ja, aber auch hier wieder die die

00:12:55: Frage bisher macht diese Entscheidung ein Mensch und auch ein

00:12:58: Mensch ist nicht perfekt. Auch ein Mensch macht Fehler und das ist auch die gleiche

00:13:02: Diskussion, die ich gefühlt jeden Tag höre. Ja, wir können ja nicht vertrauen

00:13:05: und die KI jetzt mal wieder auf den, auf die, auf die,

00:13:10: auf LL M bezogen. Ja, die macht ja Fehler,

00:13:13: die halluziniert natürlich. Ja,

00:13:16: weiß jeder mittlerweile, aber stell dir vor, du hast einen neuen Mitarbeiter,

00:13:20: arbeitest den ein, der macht auch Fehler. Also das heißt, ich glaube, wir müssen uns

00:13:24: einfach daran gewöhnen, dass man künstliche Intelligenz durchaus

00:13:32: mit einem kritischen Auge bewerten muss immer. Und sie

00:13:36: ist eben nicht statistisch perfekt oder auch deterministisch im

00:13:41: Sinne von du gibst eine Frage ein und kriegst immer die gleiche Antwort, sondern auch

00:13:44: das kann variieren. Und ich denke, damit müssen

00:13:48: wir uns in nächster Zeit immer mehr auseinandersetzen mit Systemen, die wir auch hinterfragen

00:13:53: müssen kritisch. Da gibt es eine coole Statistik, muss ich auch gleich

00:13:57: loswerden. Also die MIT MIT Technology Review hat eine Umfrage

00:14:01: durchgeführt. Die Frage war einfach, welche Aufgaben würdest

00:14:05: du einer KI anvertrauen? Die Forscher von Meta,

00:14:09: also METR einer so eine Forschungsorganisation KI etc.

00:14:14: Haben herausgefunden, dass die Komplexität der Aufgaben, die LLMs mit

00:14:18: 80 Prozent Genauigkeit bewältigen können und

00:14:23: diese exponentiell wächst, nicht linear,

00:14:27: exponentiell wächst.

00:14:29: GPT-5 ist laut ihren Messungen das zuverlässigste System.

00:14:33: Wir sind mittlerweile schon bei 5, 1 und so weiter und so weiter. Das habe

00:14:36: ich tatsächlich noch gar nicht ausprobiert. Ja, 5.1. Ich bin weg von ChatGPT.

00:14:39: Ja, ja, ich sehe dazu. Ja, kommen wir gleich dazu. Und die Umfrageergebnisse

00:14:44: sind spannend. 59 Prozent aller aller

00:14:48: Befragten haben gesagt, ich will KI nichts von diesen Dingen machen lassen,

00:14:51: also Kein Vertrauen. Genau. 18 Prozent würden Inbox Management

00:14:55: und Meeting Planung delegieren, Postfach und Meetings

00:15:00: organisieren. Kleine Info hier,

00:15:03: ich habe Christian mal ein Buch ausgeliehen vor sieben Jahren, glaube ich, oder acht Jahren

00:15:07: und da war schon ein Beispiel drin von Kai Fu Lee, wo er reingeschrieben

00:15:12: hat, eine AI Google oder AI Kalender Organizer,

00:15:15: also wie viele Jahre zurück.

00:15:19: OK, 12 Prozent würden eine Reise planen lassen, 11 Prozent würden

00:15:23: Essensplanung und Online Einkauf delegieren. 0 Prozent würden mit Freunden und

00:15:27: Familie in Kontakt bleiben, delegieren. Das macht

00:15:31: durchaus Sinn. Wobei ich muss echt, ich muss gestehen, ich habe

00:15:36: tatsächlich letztens eine e mail zu 100 prozent von ki schreiben lassen,

00:15:40: weil ich einfach keine Lust hatte, die selber zu schreiben.

00:15:43: Und ich hoffe, derjenige,

00:15:47: der sie bekommen hat, hat es nicht gemerkt, aber die war sehr gute E Mail,

00:15:50: ich habe sie quer gelesen, funktioniert auch gut das

00:15:55: Thema. Auch zum Thema Reiseplanung habe ich eine Story tatsächlich unseren

00:16:00: letzten Urlaub haben wir jetzt nicht komplett mit KI geplant,

00:16:03: aber wir haben folgendes Experiment gemacht wir haben mit der

00:16:07: Familie das Handy am Tisch gelegt in der Mitte, haben auf Record

00:16:11: geschalten, haben diskutiert was wir so wollen, was wir nicht

00:16:15: wollen etc. Und haben daraufhin dann uns Empfehlungen geben lassen

00:16:19: und das war gar nicht schlecht also zum Thema ist natürlich nicht geplant im

00:16:23: Sinne von bu dieses Hotel und mach genau das und diesen Flug aber

00:16:28: zumindest mal erste Ideen sich geben lassen war super Ich

00:16:33: glaube aber, dass zum Thema Reiseplanung guckt

00:16:37: man in die Unternehmen wie viel jetzt in gewissen Branchen verreist

00:16:41: wird und Ausseneinsätze gemacht wird was da an Energie investiert wird in Hotels

00:16:46: suchen Hotels buchen, Autos buchen dann auch der ganze

00:16:50: abbrechen Kram. Also ich glaube, dass da wahnsinniges Potenzial daran ist es zu

00:16:54: 100 Prozent zu automatisieren zu 100 Prozent hundertprozentig und

00:16:58: Accounting steht bei mir auf der Liste ne Accounting W das erste wo ich sagen

00:17:03: würde rationalisiert euch sofort damit ihr wichtigere Aufgaben wahrnimmt aber

00:17:07: du hast völlig recht überleg mal Auto buchen, Hotel buchen tralala

00:17:11: wenn du einfach eine KI, wenn die genug Infos über dich haben und dann sagst

00:17:15: hey ich brauche ABC. Es gibt ja Guidelines im Unternehmen, wo du ja einhalten

00:17:19: musst. Es gibt ja Policy genau genau und dann kann man festlegen, die kann man

00:17:23: als als Text beschreiben und dann soll sich bitte eine KI dran halten und selbst

00:17:26: wenn das Argument dann ist ja du kannst ja vielleicht nicht bei einer

00:17:30: Pension XY per Internet buchen ja aber du kannst ein Chatbot,

00:17:34: ein Voicebot kann er vielleicht anrufen und der versteht die Frau an

00:17:38: der Theke und die macht mit dem einen Termin aus und macht mit ins Buch

00:17:41: das Zimmer genauso ich mache mal diese Linie komplett

00:17:46: du machst einen Kalendereintrag ich

00:17:50: tops noch mehr also Beispiel du führst ein Gespräch mit einem potenziellen Kunden oder whatever

00:17:54: der sitzt in Berlin danach entsteht ein Transkript aus

00:17:58: dem Transkript wird klar, dass du und mit ihm ausgemacht hast, dass ihr euch dort

00:18:02: trefft im Februar ChatGPT oder ein KI sagt

00:18:06: hey guck auf beide Kalender, schlag drei Termine vor,

00:18:10: warte ab bis beide zusagen für einen Termin dann weiß ich, der Christian braucht dort

00:18:14: ein Hotel in der Nähe ich kenne den Christian Buch, Buch, Buch, Buch übrigens

00:18:18: braucht man dafür keine Hotelplattform mehr ich

00:18:22: könnte einfach auf der Webseite der Hotels gehen. Genau, genau.

00:18:25: Checkt ab und Notfall, so wie du es gesagt hast, frägt nach, ruft an,

00:18:29: klärt für dich und du kümmerst dich überhaupt gar nicht mehr

00:18:33: um das Ganze. Du kriegst nur noch E Mail, wo draufsteht, da ist dein Hotel,

00:18:36: das ist das, das ist das. Richtig. Also ich top das

00:18:40: nochmal. Du sagst, nee, da kann ich nicht hin, Hotel gefällt mir nicht, die Zimmer

00:18:43: irgendwie sind komisch, Buch das um, Buch das um. Also überleg mal,

00:18:47: Christian, Wahnsinn, Wahnsinn. Und das kommt, also ich muss

00:18:52: mal sagen, das kommt, wir haben überhaupt keine andere Wahl und

00:18:56: wir müssen auch gar kein KI können. Das wird irgendwann all unsere Kalender und Outlook

00:19:00: und Microsoft ist da natürlich die Domäne, das kommt

00:19:04: 100 Prozent, weil du gerade Outlook und Microsoft sagst, ich hatte heute

00:19:08: auch den Fall, wir haben zu zweit vier Stunden eine PowerPoint Präsentation bearbeitet.

00:19:12: Geht ja mittlerweile wirklich toll. Ich weiß gar nicht, wie das früher war. Früher,

00:19:16: Wenn du eine PowerPoint, also beispielsweise eine Unternehmensstrategie Präsentation

00:19:20: über vier Leute abstimmen musstest, dann musstest du das per E Mail rumschicken,

00:19:24: dann musstest du Versionen machen. Okay, schau du mal drauf, mach mal eine neue Version,

00:19:27: sag mir genau, V, final, Klammer zu,

00:19:34: wir haben vier Stunden Präsentation gemacht, weiß nicht, wie viele

00:19:38: Folien es waren und dann Textfelder rumgeschoben und machst ein bisschen weiter hinter und

00:19:43: ja, und bitte Hintergrund und Farbe ändern und besser alleine, warum kann

00:19:47: man das nicht auch zukünftig beschreiben? Du kannst ja mittlerweile auch schon, können wir vielleicht

00:19:50: nachher dazu mit Tools wie Notebook LM und anderen

00:19:54: Tools Präsentationen erstellen. Das heißt, was ist, wenn du in Zukunft

00:19:59: nur noch Instruktionen gibst, per Sprache sagst, bitte, ich habe das und das Thema,

00:20:02: bitte schreib mir die Präsentation und wenn du nicht zufrieden bist, dann kannst du es

00:20:05: per Sprache nachbessern. Kannst sagen, hier bitte diese Änderung hier, die Tonalität

00:20:08: ändern, Design bisschen ändern. Also ich bin fest der Meinung, dass das zukünftige,

00:20:13: die zukünftige Interface zum Computer wird nicht mehr nur die Tastatur sein,

00:20:18: sondern Sprache, menschliche Sprache wird immer wichtiger werden. Und ich glaube, ich sage das

00:20:22: jede Folge. Mein Interface zu den

00:20:26: Sprachmodellen ist tatsächlich meine Sprache, also zu Textbox.

00:20:30: Ich diktiere rein, auch selbst wenn du, ich weiß, du bist kein großer Fan von

00:20:34: Siri. Siri ist der absolute Scheiß einfach kacke.

00:20:37: Aber das Witzige ist, das ist im Sprachmodell egal. Selbst wenn du,

00:20:41: wenn du mal einen Satz irgendwie ein bisschen verdängelst, wenn du nicht komplett

00:20:45: vom Inhalt ein Thema Verfehlung machst, es ist egal. Es ist im Sprachmodell

00:20:49: wurscht. Das ist das so tolerant.

00:20:54: Ich habe noch was neulich gelesen und zwar, es gibt ja diesen mit und das

00:20:58: ist jetzt wirklich mal ein Tipp an alle und zugleich erstmal die

00:21:02: Entschuldigung. Wir sagen ja ständig in jeder Folge, dass wir es verlinken werden. Wir verlinken,

00:21:06: wir haben bisher nichts verlinkt. Christian, falls du es nicht gemerkt hast. Wir haben gar

00:21:09: nichts verlinkt. Wir sagen es euch. Bitte merkt euch das einfach. Das ist easy.

00:21:12: Es gibt den MIT AI Hype Index,

00:21:16: also alles gehyptes und die packen das in so einen Graphen rein und sagen,

00:21:20: ist es unterirdisch oder totaler Wahnsinn. Und in so einer Zeitleiste

00:21:24: und dieses Hype Index, die ändert sich auch, glaube ich,

00:21:28: einmal die Woche oder sowas. Es ist ja auch im Moment so viel Bewegung.

00:21:31: Ja, also totaler Wahnsinn. Und jetzt muss ich mal kurz was sagen, da passt

00:21:35: du jetzt rein. Und zwar ein Highlight war, Forscher trainieren

00:21:39: KI, um ihre eigenen Jobs zu machen.

00:21:43: Ja, also es gibt tatsächlich Forscher, die KI darauf trainieren, die Art von

00:21:48: repetitiven, analytischen Aufgaben zu übernehmen, die sie selbst machen.

00:21:51: Das ist rational. Warum sollte ein hochqualifizierter

00:21:56: Wissenschaftler Stunden damit verbringen, Datensätze zu cleanen, wenn eine KI da sie Minuten erledigen

00:22:00: kann? Oder du kannst was sagen. Ich meine, du hast ja Forscher, bist Forscher.

00:22:04: Ja, also forschen klingt immer so,

00:22:08: stellt sich vor wie irgendein James Bond Film, man sitzt im Labor und hat

00:22:13: nur mit tollen Gagäten zu tun und macht nur hochwissenschaftliche

00:22:18: Dinge. Ja, aber du machst auch ganz viele dreckige Dinge.

00:22:21: Also Excel Listen ausfüllen, Daten bereinigen,

00:22:25: Messungen durchführen beispielsweise, wenn du irgendwas Experimentelles machst, natürlich sehr

00:22:30: viel Text schreiben am Schluss dann Berichte schreiben, Forschungsberichte schreiben, wissenschaftliche Artikel

00:22:34: formulieren. Und das ist ganz, ganz vieles davon

00:22:38: ist sehr unromantisch, vor allem, wenn du im Bereich Machine Learning,

00:22:42: Datenanalyse tätig bist. Es ist wirklich hässliches

00:22:47: Python und Jupyter Notebook Geschubse und gut, ich habe

00:22:51: jetzt eine Zeit, war wissenschaftlich tätig, da gab es diese ganzen,

00:22:54: Er redet aus, erfahrung da gab es diese ganzen Tools noch nicht,

00:22:58: gab es die Tools noch nicht, da musstest du das alles von Hand machen oder

00:23:01: hast vielleicht noch ein Hiwi gehabt. Hiwi, also irgendein Hilfswissenschaftler, der 3,50

00:23:06: bekommen hat und dann für dich die Arbeit gemacht hat. Ich finde es gut.

00:23:09: Ich finde es sehr gut, weil es ist wie in jedem Beruf ist die Automatisierung.

00:23:13: Hat nicht, hat nicht nur, ist nicht

00:23:17: nur ein Ding, wo man Angst haben muss um deinen Job, sondern es nimmt dir

00:23:21: Sachen weg, um dich auf andere Sachen fokussieren zu können. Meine Messages an

00:23:25: alle Branchen, insbesondere die konservativen, ihr habt es alle

00:23:29: nicht geschafft, verdammt noch mal nur einfach nur Daten aus Maschinen zusammenzufuchteln,

00:23:33: um das mal zu analysieren und daraus fruchtbare Produkte zu entwickeln.

00:23:36: Jetzt kommen Leute um die Ecke und können deine Sprache so genau verstehen,

00:23:40: dass sie künstliche Intelligenz dazu losschicken, um in deiner

00:23:45: Sprache Podcasts zu generieren und was weiß ich was oder zu sprechen oder

00:23:49: den Zahnarzt anzurufen oder Daten zu analysieren. Das heißt, du gibst einem Sprachmodell

00:23:54: ein komplett kaputtes Excel und es versteht das

00:23:58: Excel schreibt Analysetool, schreibt Daten, Cleanup Tools und

00:24:01: du musst dich umhaupt nichts kümmern. Absolut, absolut.

00:24:04: Also wirft eine Frage auf das ganze Thema, wenn die KI

00:24:09: die langweiligen Teile deines Jobs übernimmt, was bleibt dann übrig? Im besten

00:24:12: Fall die kreative strategische Arbeit oder ich sag mal, ein Mensch

00:24:17: halt was, ein Mensch tut so Händen und Füßen, im schlechtesten Fall gar

00:24:21: nichts. Also muss man auch mal sagen. Und die und die

00:24:25: harte Wahrheit ist tatsächlich, dass viele, ich sage das in jedem

00:24:29: Podcast, dass viele Berufsgruppen verdammt nochmal ein komplettes Problem haben.

00:24:32: Tuto complet, ich könnte ja dutzende Berufe aufzählen

00:24:37: heute wieder ein gesehen oder ein Berufsbild gesehen.

00:24:41: Gut, das wird in der Statistik nicht besonders auffallen, eine Arbeitslosenkurse,

00:24:45: sondern es gibt so Grafiker, die Meetings mitprotokollieren

00:24:49: in tollen, wirklich echt gut aussehenden Bildern.

00:24:53: Es ist vor kurzem, ich glaube eine Woche her oder

00:24:57: zwei Wochen her, das Google Nano Banana Modell NanoBanana Pro

00:25:01: rausgekommen. Brutal. Das einfach brutal gute

00:25:05: Bilder erzeugt mit Text Prompts bzw.

00:25:09: Mit beiden. Also sowohl man kann ihm sowohl Bilder mitgeben als auch mehrere

00:25:14: Bilder oder Bilder plus Text. Und das Gute ist,

00:25:17: dass es extrem gut den Kontext erhält und Text

00:25:22: generieren kann. Das heißt Du kannst Schaubilder generieren, du kannst Infografiken

00:25:26: generieren, du kannst Texte irgendwo hinschreiben lassen und das mit einer noch

00:25:30: nie dagewesenen Qualität. Und Grafiker,

00:25:33: der irgendwelche Werbetexte macht, der,

00:25:37: weiß ich nicht, Social Media Beiträge kannst du mittlerweile

00:25:40: mit einem Schuss, kannst du die erzeugen. Da brauchst du nicht mehr kennen

00:25:44: dafür. Brauchst kein Kenner dafür. Ein Beispiel ist auch Übersetzer. Übersetzer,

00:25:48: technische Dokumentation braucht man nicht

00:25:52: mehr. Absolut, absolut. Dolmetscher in Echtzeit transkribieren brauchst

00:25:56: du nicht mehr. Gerade rund um das Thema Forscher

00:26:00: ist natürlich etwas überhyped, aber es ist etwas, wo wir

00:26:04: beide, glaube ich, sagen können, das kann mit sehr hoher Wahrscheinlichkeit

00:26:08: genauso kommen. Interessant ist die evolutionäre Frage.

00:26:12: Manchmal denke ich mir, es war ja bisher in der Evolution noch nie so,

00:26:15: dass die Leute dann irgendwie dann 80 Prozent der Gesellschaft arbeitslos war.

00:26:19: Wir haben ja trotzdem eine betriebswirtschaftliche, wie sagt man,

00:26:23: Ansporn, dass Leute arbeiten, damit wiederum andere Geld verdienen.

00:26:26: Klingt jetzt blöd, aber. Und ich denke mir so, was ist denn dann? Was kommt

00:26:31: dann? Also was machen wir mit den ganzen Übersetzern, die acht Sprachen

00:26:35: übersetzen können? Was mache ich jetzt mit dem? Weiß ich nicht, weil Robots gibt es

00:26:39: ja auch die, ich habe neulich wieder gesehen, aber das ist jetzt,

00:26:42: dass wir unseren Rahmen nicht sprengen. Robots, die unglaublich

00:26:47: echt aussehen und Mimik und Gestik nachmachen können.

00:26:51: Ich habe jetzt leider, wir haben ja nur, du verlinkst es bestimmt unter dem Podcast,

00:26:55: ich verlinke es nicht, aber ihr müsst euch das unbedingt anschauen, wer Da auch zu

00:26:59: YouTube gibt es einige Videos, aber bitte nicht diese Robots WM aus China,

00:27:03: wo die Roboter einfach umfallen. Ich meine richtig, also richtig

00:27:07: Mimik und Gestik und Bewegung. Absoluter Wahnsinn.

00:27:11: Ich habe es gesehen. Wenn ich es finde, dann nehme ich es mit zum nächsten

00:27:14: Podcast. Auf jeden Fall. Sehr gut.

00:27:17: Lass uns doch mal bei den bei den Neuerungen der letzten ein,

00:27:21: zwei Wochen bleiben. Also ich habe jetzt gerade schon angesprochen, NanoBanana Pro

00:27:24: als Bildmodell von Google, von Google Gemini habe

00:27:30: ich das Wochenende tatsächlich das erste Mal das erste Mal benutzt und

00:27:34: eine halbe Stunde später die Subscription abgeschlossen.

00:27:39: Also wirklich, du weißt, ich bin oft, ich bin schnell so Sachen

00:27:43: zu begeistern und bin eh auf der ganzen Hype Train, reite ich wirklich ganz oben

00:27:47: und nehme alles nehme alles mit aber dass ich wieder

00:27:51: mich dass mich irgendeine neuigkeit wieder so begeistern kann habe

00:27:56: ich tatsächlich schon lange nicht mehr gehabt ja immer mal wieder aber das war tatsächlich

00:28:00: einfach next level die bilder die ich da generiert habe witzigerweise auf meine

00:28:04: tochter ein arbeitsplatz bekommen die hat sie komplett verdattelt

00:28:08: gehabt und dann hätte sie entweder gut das war auch schon mit tintenkiller

00:28:12: alles schon durchgeschrieben und kreuz und quer gesagt okay jetzt entweder ich scanne jetzt ein

00:28:16: und setze mich 10 Minuten mit Photoshop hin und radier das raus und drucks

00:28:20: dann aus und kannst es noch mal machen oder ich dachte ich probiere es einfach

00:28:23: mal aus nanobanana gesagt hier das ist ein arbeitsplatz bitte entferne

00:28:27: alle handgeschriebenen texte bumm hab das arbeits bekommen

00:28:31: es war perfekt wirklich gedauert 35 Sekunden ich

00:28:35: muss es dir zeigen es ist einfach nur unfassbar welche abo hast du da dass

00:28:39: die zuhörer das auch mit das ist das Gemini pro Abo

00:28:43: kostet 25 ich glaube der erste monat ist sogar kostenlos also im moment zahle ich

00:28:47: auch noch nichts dafür und ist dann enthalten dann Gemini mit

00:28:52: deep Research mit dem neuesten modell mit nanobanana

00:28:56: pro es ist inkludiert auch ein Code assistent den

00:29:00: habe ich auch schon ausprobiert also Gemini Code Assist mit agentenmodus

00:29:04: das heißt den baust du in den vs Code ein und der läuft einfach los

00:29:07: erstellt ganze Projekte führt Code aus

00:29:11: den habe ich schon ausprobiert funktioniert gut und auch eines meiner

00:29:16: lieblingstools bisher auch schon in der kostenlosen Variante ist dabei und zwar Notebook

00:29:20: LM mit einem höheren limit tagtäglich das

00:29:24: tatsächlich noch nicht gerissen habe und können wir vielleicht ein Notebook LM ich glaube da

00:29:27: könnten wir eine ganze Folge machen also gefühlt rockt Google gerade

00:29:31: brutalst und ich glaube dass open die

00:29:35: kriseln gerade die kriegen gerade ein bisschen die krise weil Google einfach nur

00:29:39: abliefert am laufenden band Wahnsinn ja also Google hat definitiv überholt weil wenn

00:29:43: ich so sehe was Notebook LM macht und da auch also an alle die zuhören

00:29:46: Notebook LM unbedingt bitte machen es ist ein muss für jeden unbedingt

00:29:52: Notebook LM funktioniert folgendermaßen man hat also es ist nicht so das typische Chat

00:29:57: interaktionsinterface sondern man kann so ein gewissen thema macht

00:30:02: im Prinzip ein Projekt auf und kann Dort Inhalte reinkippen, PDFs, einfach Text

00:30:06: reinpasten, Links reinpasten und man kann dann

00:30:10: zu diesem Inhalt, den man da bereitgestellt hat, kann man

00:30:14: verschiedene neue Inhalte sich generieren lassen. Der Klassiker, ich glaube

00:30:18: das erste mit dem Notebook LM wirklich komplett durchgestartet ist und

00:30:22: so viral ging es, war, man konnte sich zu diesem Inhalt einen Audio

00:30:29: Overview generieren lassen. Das heißt einfach, man kann sich das

00:30:33: Ganze als MP runterladen und dann beim Auto hören.

00:30:36: Das nächste war, ist aber auch schon länger her, ist tatsächlich Podcast, das heißt

00:30:40: zwei Personen unterhalten sich interaktiv zu dem Thema.

00:30:44: Das dritte und vierte war ganz kurz, wenn ich unterbrechen hab,

00:30:47: das hat anfangs normal funktioniert. Anfangs gab es eine Person.

00:30:51: Genau, eine Person, dann zwei Personen, dann mehrsprachig.

00:30:57: Ja, mehrsprachig, genau, mittlerweile in vielen, vielen Sprachen, also Deutsch ist auch dabei und

00:31:01: man kann sich auch ein Report generieren lassen, eine Mindmap. Das heißt,

00:31:05: wenn man Thema erstmal, es ist auch super zum Lernen, wenn ihr Zuhörer,

00:31:09: Studenten seid, ich würde gerne auch mal in die Studienzeit zurückversetzt werden auch

00:31:13: mal, Man kann sich Mindmaps generieren lassen, um einfach ein Thema grundsätzlich mal zu

00:31:18: verstehen, wenn man ein visueller Typ ist. Man kann sich Flashcards, also Lernkarten generieren lassen,

00:31:22: das heißt, du kriegst Lernkarten und kannst interaktiv zum Thema lernen. Du kannst,

00:31:26: und das ganz neu jetzt auch, jetzt erst ein, zwei Wochen her

00:31:31: wahrscheinlich, weil auch Nanobanana Pro integriert ist, man kann sich Infografiken

00:31:35: generieren lassen, weil Nanobanana eben extrem gut ist, auch Text

00:31:39: zu generieren. Das waren bisherige Modelle eher

00:31:44: schlechteren, Das heißt Text letztlich generieren die Modelle ja Pixel

00:31:48: und früher war es wirklich so an allen Modellen von

00:31:52: Dolly und Flux und wie sie alle heißen, ja,

00:31:56: die haben teilweise Text generiert, aber der war fehlerhaft. Es haben Buchstaben gefehlt,

00:32:00: es waren Buchstaben irgendwie kyrillisch und keine Ahnung was gemischt und Nanobanana

00:32:04: Pro kann jetzt den Text perfekt erzeugen, das heißt haben diese

00:32:08: Infografik Möglichkeit, Du kannst dir zu einem kompletten PDF,

00:32:12: so eine wissenschaftlichen Arbeit, kannst du deine Infografik generieren lassen, die das komplette

00:32:16: Paper in einem Bild darstellt. Und jetzt der letzte Punkt ganz

00:32:20: neu, du kannst ja bitte festhalten, Slides generieren,

00:32:24: komplette Slides hatten wir neulich erst das Thema und ich habe einen

00:32:28: noch vergessen tatsächlich eigentlich noch next level und zwar gesagt

00:32:33: Audio Overview mit einem Speaker. Wir haben Audio Overview

00:32:38: letztlich Podcast mit zwei Speaker. Wir haben das Thema Slide und

00:32:42: es gibt mittlerweile auch Slide inklusive jemanden, der das spricht.

00:32:47: Das heißt, du kannst dir das sogar einfach berieseln lassen. Es ist einfach nur,

00:32:50: ich bin einfach nur sprachlos. Ja, jetzt hast du so schnell gesagt, also um mal

00:32:54: kurz aufzuschlüsseln, ihr seht, ich kann Christian gar nicht aufhalten hier bei

00:32:58: meinem Quatschen. Christian, wir haben heute noch ein Feature entdeckt, weißt du? Ja, wir haben

00:33:01: ein Feature entdeckt. Warte, warte, warte. Einfach nur, ich fall gleich vom Stuhl. Wir haben

00:33:04: heute mal ein bisschen experimentiert oder du hast experimentiert, ich auch. Und dann haben wir

00:33:08: gesagt, was haben wir denn für Ergebnisse? Und dann haben wir mal so ein Podcast

00:33:11: generieren lassen. Kurz mal zur Info. Notebook LM, das ist eine geschlossene

00:33:16: Welt mit, wie sagt man denn, Christian? Also auf jeden Fall kannst du

00:33:20: dort deine Quellen angeben. Genau so ein Projekt und dann das Projekt kannst du im

00:33:23: Prinzip beliebig viele Quellen reinpasten. Genau links.

00:33:27: Stellt euch vor, ihr müsstet über ein Thema einen Vortrag halten und Sammelt eure

00:33:31: Quellen, PDFs, Webseiten, Videos, die könnt ihr da

00:33:35: alle reinknallen. Notebook Element analysiert

00:33:39: und daraus entsteht all das, was der Christian gesagt hat und

00:33:43: wir haben dann einen Podcast generiert. Das funktioniert sehr stabil seit

00:33:47: einiger Zeit schon. Und heute haben wir noch ein Feature entdeckt. Erzähl mal kurz zu

00:33:50: dem Feature, was ich ja, das ist ja wieder so, wo ich mir denke,

00:33:52: Atemper WTF, wirklich auch

00:33:56: wieder Google einen abgeschossen. Und zwar haben wir diesen diesen Podcast

00:34:00: generiert. Okay, ist nice, kann ich mir vielleicht mal auf der Autofahrt

00:34:04: anhören und dann ist das ein Button, irgend so eine Hand,

00:34:07: die sagt, okay, Hand heben. Dann haben die nicht tatsächlich

00:34:11: in diesem Podcast kannst du interaktiv mittendrin einfach

00:34:15: deine Hand heben, dann pausieren diese beiden, dann kannst du deine Frage

00:34:19: stellen und dann gehen diese beiden Personen interaktiv auf deine Frage

00:34:23: ein. Wie unfassbar ist das bitte für mal all die, die mit

00:34:27: KI nicht viel am Hut haben und jetzt nicht verstanden haben, worüber wir reden.

00:34:30: Ich gebe euch mal ein Beispiel. Es passt eigentlich perfekt. Ich fahre montags abends ja

00:34:33: meistens zum Projekt und Montagabends, wenn ich so gegen

00:34:37: 19, 20 Uhr fahr, dann läuft auf BR mein

00:34:41: Nachrichtensender. Ich liebe diesen Nachrichtensender. Ich liebe Nachrichten auf jeden Fall

00:34:44: da läuft dann Deutschland spricht oder so heißt das das

00:34:49: Moderator erzählt da sind zwei Profs meistens eingeladen, einer aus

00:34:53: der Politik und irgendjemand den die auf der Straße gefunden haben und dann

00:34:57: aber haben die eine Nummer dazu da kannst du dich einschalten wie in einem Radio.

00:35:02: Das ist wirklich richtig geil. Teilweise reden die Leute irgendeinen Scheiß und

00:35:07: so ist das jetzt. Das heißt ihr habt einen KI generierten Podcast,

00:35:11: in denen ihr live dieser KI Fragen stellen könnt,

00:35:15: als ob ihr gerade euch in einer Radiosendung eingewählt

00:35:19: habt. Wir haben jetzt die nächste Berufsgruppe, die ein Problem hat Radiomotor.

00:35:24: Schöne Grüße an Rama Suri übrigens das wird

00:35:28: lustig. Okay, also auf jeden Fall. Also nur ist

00:35:33: aber ein Feature wo jetzt nur in der englischen Podcast, ich glaube das ist tatsächlich

00:35:36: nur Englisch. Ja bei mir habe ich es in Deutsch nicht. Also funktioniert nicht.

00:35:39: Alles andere was wir über diese Podcast erstellen und Quellen gesagt haben funktioniert in allen

00:35:44: Sprachen oder in vielen Sprachen und auch in Deutschland.

00:35:48: Aber dieses sich einschalten und Fragestellen der KI,

00:35:52: das funktioniert im Moment nur auf Englisch. Aber allein das das geht ist

00:35:56: atemberaubend. Wie gesagt, wie gesagt tatsächlich

00:36:02: eines meiner Favoriten Tools aktuell Notebook LM.

00:36:07: Sehr cool. Pass auf Christian,

00:36:11: wir haben kleinen Themenwechsel. Wir sind immer noch in AI Welt. Ich habe wieder richtig

00:36:15: geile Themen hier. Was glaubst du denn wie viel verdient

00:36:19: ein Künstler auf Spotify pro

00:36:24: Stream? Boah, erstmal die Frage hast verstanden. Also wenn einer ein Musikstück

00:36:29: abspielt, wie viel verdient dann der Künstler? Boah pro

00:36:34: Stream. Also ich gute Frage. Also ich schätze mal

00:36:46: Null Komma001 Dollar. Sehr gut. Es sind 0,003

00:36:50: Dollar immerhin die Größenordnung richtig geschätzt.

00:36:54: Also Passau richtig cool. Lateinamerikanische Musiker haben herausgefunden,

00:36:59: dass sie mit AI generierten Songs Streaming Plattformen betrügen

00:37:03: können. Sie erstellen tausende von Songs, lassen Bots diese Songs abspielen

00:37:07: und kassieren die Tantie. Eben das Geschäftsmodell ist schon bekannt, das gibt es

00:37:11: ja schon in anderen Domänen wie Werbung etc.

00:37:15: Ja also und dann die Frage,

00:37:19: die sich da in diesen Foren stellt ist, die haben gesagt, also man sagt

00:37:22: immer, das ist ja eh so ein kaputtes System, wo die Künstler ja immer weniger

00:37:26: verdienen. Also Musiker werden mit Spotify Kohle verdienen, dieser G.

00:37:31: Und dann hat man sich gedacht, naja gut, jetzt geht diese Welt

00:37:35: auch mal langsam runter eine Industrie, die langsam stirbt

00:37:40: und zwar in ihrer Kunst Musik zu

00:37:44: kreieren. Also super, super, super spannend.

00:37:49: Ich habe das letzte wieder ein bisschen mit Suno rumgespielt.

00:37:53: Ja, ist witzig, habe jetzt keine sinnvolle Anwendung, außer für unseren Podcast

00:37:57: mal zu generieren, aber es ist auch echt beeindruckend mit

00:38:01: wenig Aufwand du tatsächlich Musik generieren kannst Und ja,

00:38:05: und es ist eigentlich glaube ich grundsätzlich mittlerweile so mit

00:38:08: allen Medien, die du automatisch generieren kannst.

00:38:12: Die Welt wird überflutet. Jetzt pass auf,

00:38:16: er hat angefangen mit Texten, mit Blogartikeln,

00:38:20: Zeitungsartikel, selbst meine Regionalzeitung steht schon unten drunter, mit KI generiert.

00:38:25: Ist cool, aber natürlich führt es auch dazu,

00:38:29: dass die Welt überschwemmt mit Slop, mit einfach Quatsch,

00:38:33: denn sie wollen Content generieren, wollen irgendwie ihren Content pushen, wollen ihre Marke pushen

00:38:37: und führt dazu, dass Texte, Bilder,

00:38:41: Beispiel letzten zwei Wochen war mein komplettes LinkedIn nur voll

00:38:45: mit irgendwelchen dummen Infografiken, weil es Nanobanana jetzt kann.

00:38:48: Bist du geflutet mit Infografiken, hast gesehen mit

00:38:52: Bildern, Bilders kann nicht mehr sprechen, Bilders,

00:38:55: Bildern, jetzt und jetzt, das habe ich noch gar nicht angefangen.

00:38:59: Videos. Es gibt, ich habe gehört, es gibt creator,

00:39:02: die sogenannte faceless YouTube Kanäle

00:39:06: betreiben. Das heißt, die lassen komplette YouTube Videos komplett KI generieren,

00:39:10: stellen es online und können das natürlich absolut skalieren und damit

00:39:14: hintergehen sie auch ihr System. Das heißt, die machen massenhaft, erstellen sie Inhalte,

00:39:18: kriegen dadurch Klicks, kriegen dadurch Werbeannahmen und das ist das gleiche Spiel wie

00:39:23: mit Spotify. Also das ganze Thema Content kreieren,

00:39:27: vollautomatisch, hat auch seine negativen Seiten auf jeden

00:39:32: Fall. Da passt noch eine Story ganz gut, die ich auch gelesen habe und zwar

00:39:36: EES gibt ein AI Podcast Startup,

00:39:40: das über 3000 Episoden pro Woche ausspuckt,

00:39:43: alles mit AI generierten Hosts. Die Qualität

00:39:47: ist zwar durchwachsen, zeigt aber, wie sehr KI Content Produktion industrialisieren

00:39:52: kann. Also letztendlich ist

00:39:56: es ja auch eine Art und Weise von Spam,

00:40:00: wenn es ja, aber wenn es noch diese, ich sag

00:40:04: mal, mittelmäßige Qualität hat, jetzt haben wir über Podcast gesprochen mit

00:40:08: dieser Ultraqualität, dann ist nur nicht die Frage

00:40:12: eigentlich und ich meine berechtigt, du willst Informationen konsumieren.

00:40:16: Stell dir vor, wir hätten was ich sage, ich gehe mal von der Forschung

00:40:19: aus. Forschung heißt ja für mich z. B. Irgendwas entdecken, was spannend ist, dann schreibt

00:40:23: man eine Forschungsarbeit daraus ein, Doktorarbeit, was auch immer. Das ist ja spannend.

00:40:27: Wenn ich wüsste, dass man daraus ein Podcast machen könnte, würde ich es machen,

00:40:30: weil dann ist es ja eine neue Informationsquelle, was einem

00:40:34: lehrt. Alles andere gibt's alles mal.

00:40:38: Wäre schon happy, wenn es einfach nur fünf mal gibt und dann von mir aus

00:40:42: kann ich die gleiche Quelle einstellen. Ich will es von einer Frau hören, ich will

00:40:44: es von einem Mann hören, ich will es dominant hören. Weiß ich nicht. Ich will

00:40:47: es cool hören, ich will es hype hören. Why not? Genau. Und das glaube

00:40:51: ich, das führt zu einer, ich nenne es mal Hyper Personalisierung.

00:40:54: Das heißt, du kannst, du kannst den Content genauso konsumieren,

00:40:59: wie du ihn haben möchtest. Bestes Beispiel Podcast. Du hättest gerne Podcast

00:41:03: zum Thema XY. Und ich habe, ich habe tatsächlich folgendes schon gemacht. Ich hatte einen

00:41:08: Gedanken, ich beschäftige mich auch beruflich mit KI, mit Industrie,

00:41:12: Industrie, vernetzten Maschinen, einen Gedanken über, wie zukünftig

00:41:17: KI Agenten mit Maschinen kommunizieren.

00:41:21: Hab dazu meine Gedanken einfach reingesprochen in Gemini,

00:41:24: habe mir ein Whitepaper generieren lassen. Also Whitepaper

00:41:28: bedeutet, es soll Deep Research machen, also wirklich komplett zu diesem Thema recherchieren,

00:41:32: sammelt. Ich glaube, zeigte sogar an 40, 50 links hat

00:41:36: er durchforstet, kondensiert und daraus ein

00:41:40: Whitepaper geschrieben. Aber ich habe jetzt keine Lust gehabt, 80 Seiten Whitepaper zu lesen.

00:41:43: Und was habe ich gemacht? Ich habe dieses PDF in Notebook LM gekippt,

00:41:48: habe mir ein PDF, habe mir einen Podcast erstellt und habe den im Auto

00:41:51: angehört. Cool und was ähnliches. Also mit

00:41:56: wirklich Hyper Personalisierung auf deinen

00:41:59: Bedarf zugeschnitten, glaube ich. Es ist auch etwas Kontextwechsel,

00:42:04: aber im Bereich Software. Und zwar, ich glaube,

00:42:08: Das hat der Microsoft CEO mal gesagt, dass AI wird SaaS

00:42:13: killen. Und was er damit eigentlich gemeint hat, war,

00:42:16: dass du dir zukünftig, also oft ist ja

00:42:20: eine Software as a Service, kaufst du dir eine gewisse Dienstleistung,

00:42:23: eine gewisse, löst dir ein Problem, ist es vielleicht, du kaufst

00:42:27: dir als Unternehmer ein CRM System ein, ein Tool XY. Und was der

00:42:31: Microsoft CEO damit gemeint hat, ist, dass du zukünftig dieses Tool nicht mehr brauchst,

00:42:35: sondern du generierst es dir on the fly. Ich habe diese Woche auch einen LinkedIn

00:42:39: Post dazu geschrieben, ich habe es genannt Wegwerfsoftware. Das heißt du

00:42:43: hast eine Problemstellung die hast du vielleicht nicht nicht noch ein zweites Mal

00:42:47: aber jetzt gerade würde sie dir eine Stunde Arbeit

00:42:50: bedeuten. Was machst du? Naja du schreibst dir du lässt

00:42:54: dir Code generieren, der genau dieses Problem löst und danach schmeißt es weg.

00:42:58: Also Wegwerf Software Hyper Personalisierung Wegwerf Software

00:43:02: löst ein Problem einmal, aber schaffst es trotzdem dafür

00:43:06: dir eine Code zu generieren. Habe ich

00:43:10: tatsächlich letzte Woche gemacht hatte irgendein fieses Excel Kennst du meine Meinung zu

00:43:14: Excel? Das ist tatsächlich einer meiner nicht Skills Excel und ich lehne

00:43:18: Excel grundsätzlich ab. Auf jeden Fall da es lässt sich nicht ganz vermeiden Manchmal

00:43:23: hat es dann doch seine Daseinsberechtigung. Ich habe aus einer Software einen Export

00:43:28: bekommen, der war komplett kaputt und ich musste den auswerten.

00:43:31: Ich hätte mich eine Stunde hinsetzen können gut vielleicht ein pro ein Excel Pro jetzt

00:43:35: vielleicht eine halbe Stunde hinbekommen aber ich habe dieses Excel in Copilot reingekippt

00:43:39: und habe gesagt okay, in diesem Research Agent mach mit die und die Auswertung,

00:43:43: Boom, Auswertung bekommen, fertig. Excel weggeschmissen,

00:43:46: Erkenntnisse rausgezogen. Wahnsinn. Ganz kurze Excel Story muss

00:43:51: ich loswerden vielleicht fällt dir auch eine ein. Pass auf, du wirst jetzt gleich Excel

00:43:54: lieben für eine halbe Sekunde zumindest OK, pass auf Gespräch. Das ist auch

00:43:58: schon wieder ein Jahr her glaube ich oder so noch länger her. Ich habe gesagt,

00:44:01: hey, wo habt ihr diese Listen? Asset List,

00:44:05: wo ist denn das? Ja, der und der ruft die mal an, habe ich gleich

00:44:08: mal angeschrieben, gleich mal so mit dem Bauchgefühl, hey hey hast

00:44:12: du eine Liste? Schick mir die Excel.

00:44:16: Dann kam zurück, ne cool, ich habe es nicht in Excel, dachte ich mir so,

00:44:19: oh Gott sei Dank. Irgendeiner mal, der ein Hirn eingeschaltet hat, dann hat er zu

00:44:22: mir gesagt, ich habe es in Confluence Stopp,

00:44:27: aber die Excel ist ja hochgeladen in Confluence. Nein, nein, nicht Embedded Excel,

00:44:31: sondern wir reden von er hat Tabellen erstellt, TD, TR,

00:44:34: HTML, also in Confluence hat alles

00:44:38: hinzugefügt. Ich habe dann gesagt du hör mal zu, was soll

00:44:42: ich jetzt damit? Ich habe ich müsste das ganze mal sortieren nach irgendeiner

00:44:46: Eigenschaft war das ja Kurt, das geht da nicht. Da musst du einfach da

00:44:52: ist nichts einfach was soll ich da jetzt machen, ne, ganz einfach. Du gehst auf

00:44:56: editieren, markierst, sagst rechtsklick, kopieren, da dachte

00:45:00: ich mir okay, jetzt hat er mal rechtsklick kopieren gesagt, eigentlich gleich feuern, weißt du,

00:45:04: und ich soll das einfach in Excel hinzufügen. Excel erkennt das und dann macht er

00:45:07: das in die, macht er so eine Tabellenartig? Nein, er kennt gar nichts. Also er

00:45:11: fügt einfach das Ganze in die Zellen ein. Da ist nichts automatisiert, keine Tabelle,

00:45:14: kein gar nichts. Kann es nicht sortieren, kein gar nichts. Da habe ich für einen

00:45:17: Moment, habe ich Excel vermisst. Ich wollte gerade sagen, ich.

00:45:22: Es gibt eine Sache, die noch schlimmer ist als Excel. Ja, Tabellen in Confluence.

00:45:26: Confluence, wobei ich nehme

00:45:29: es zurück. Tabellen in Confluence sind so lange gut, solange die nicht zweimal

00:45:34: zwei überschreiten. Genau, solange sie nicht einen Sinn haben. Wenn es

00:45:37: einen Sinn hat, wenn man irgendwie sortieren muss oder anschauen muss, markieren muss,

00:45:41: machen muss, wenn es nicht gerade so eine Partyumgang ist, wenn es nicht gerade irgendwie

00:45:44: so eine Planung für eine Abendveranstaltung ist. Ansonsten ist das ja,

00:45:49: also an alle die Confluence, ja, da gibt es mehr Funktionen mittlerweile. Du kannst

00:45:53: Embedded Excel machen, du kannst da Tabellenfunktionen machen. Ja,

00:45:56: ist gut, alles gut, kann Excel auch, alles schön. Aber zu der Zeit

00:46:00: war es auf jeden Fall so eine Sache, wo ich mir gedacht habe, wo ist

00:46:03: Excel, wenn du es gerade brauchst. Weißt du, habe ich eigentlich dir schon mein Excel

00:46:06: Trauma schon mal erzählt oder warum ich das habe, das Excel Trauma? Wenn nicht,

00:46:09: erzähle ich es nochmal. Erzähl bitte einmal. Ich hoffe, ich wiederhole mich nicht, aber jeder,

00:46:13: mit dem ich über Excel spreche, der muss sich die Story anhören. Ich war ein

00:46:17: junger Arbeitnehmer und hatte

00:46:21: die Aufgabe, bin eine neue Abteilung gekommen und

00:46:25: dort sind gewisse Prozesse mit Excel abgebildet worden, wie es oft so mit findigen

00:46:29: Ingenieuren passiert. Die bauen sich dann ihre eigenen Excel Tools,

00:46:33: Excel Tools. Und dieses Excel Tool

00:46:37: hatte zwölf Reiter unten.

00:46:41: Ich glaube, allein das Template waren fünf Megabyte groß. Also wenn du ein

00:46:45: neues Projekt angefangen hast, musst du dieses Template dir holen. Geil. Musstest sicherstellen,

00:46:49: dass du das richtige Template in der richtigen Version hast. Hast du natürlich weiterentwickelt

00:46:53: dieses Tool, Stichwort Software Versionierung, Klammer auf, nicht vorhanden,

00:46:56: keine V, Klammer auf, neu, final.

00:47:02: Und dann hatte natürlich dieses Exedit 28 Milliarden Zellen

00:47:06: mit 27 Milliarden Bezügen. Da gibt es eine Funktion, ich weiß

00:47:10: gar nicht mehr, wie die heißt wo man in eine Zelle reingehen kann und dann

00:47:13: kannst du dir grafisch darstellen lassen, zu welchen anderen Zellen diese Zelle

00:47:18: Bezüge hat. Formeln. Cool, ich müsste mal nachschauen. Also ich weiß gar

00:47:22: nicht, ich habe es schon lange benutzt und dann hast du auf eine gewisse Zelle

00:47:24: draufgeklickt und gesagt bitte zeige mir alle Bezüge grafisch an Und dann ist ein

00:47:28: Blumenstrauß losgegangen. Du hast einfach nur noch blaue Striche gesehen.

00:47:32: Aber pass auf, das war noch nicht alles. Natürlich habe ich es regelmäßig geschafft,

00:47:35: durch meine Kreativität dieses Excel Sheets zu zerstören,

00:47:40: dass dann die Formel nicht mehr funktioniert hat haben Ich muss damit von vorne anfangen,

00:47:43: neues Template holen, wieder alles von Hand eingeben und das

00:47:47: Schlimmste war tatsächlich, dass innerhalb diesem Excel Sheet ist

00:47:51: man irgendwann an die Grenzen von Microsoft von diesen Makros VBA gestoßen,

00:47:55: dass man gesagt okay, ich binde noch ActiveX

00:47:59: Code C, irgendwelchen Legacy Code ein, den keiner mehr verstanden

00:48:04: hat, den binde ich mit ActiveX dort in dieses Action mit ein.

00:48:07: Das heißt, das hat das Ganze noch instabiler gemacht und sobald

00:48:11: ich glaube, das war Damals Umstellung von Windows 7 auf Windows 10 war ein Riesendrama,

00:48:16: weil nichts mehr funktioniert hat. Wahnsinn. Also das ist so bisschen die Begründung für mein

00:48:19: Excel Trauma, Aber jetzt lass uns gut, lass mal gut

00:48:23: sein mit extra nicht, dass ich nicht schlecht schlafen kann. Dieses einer

00:48:27: meiner Ex Auftraggeber, das jetzt drei Jahre her war ein Startup,

00:48:30: die du auch kennst übrigens werde ich nie vergessen, der damalige Geschäftsführer,

00:48:35: schöne Grüße übrigens, ich liebe seine Tennisschuhe.

00:48:39: Also eine Sache hat er nämlich er war ja also er

00:48:44: und Excel, ich glaube das ist ein Pärchen. Also ich glaube Excel und

00:48:48: er kennt sich hervorragend. Er gesagt Kurt, das heißt nicht

00:48:52: Excel, das heißt Excel.

00:48:56: Ich habe gesagt okay,

00:49:00: alles klar. Also es gibt auch

00:49:04: brutale Fans. Pass auf, ich habe noch eine Story und zwar habe

00:49:08: ich auch wieder neulich gelesen und zwar Thema war, als ich

00:49:12: damals bei dieser Schulung war AI for Business in Paris,

00:49:17: da hat der Prof. Damals der Theos gesagt wisst

00:49:20: ihr denn, wofür KI am meisten genutzt wird? Also das ist jetzt

00:49:25: eine Info aus April, okay, Aber jetzt neulich wieder eine Statistik

00:49:29: dazu gelesen. Alle haben gesagt ja Accounting und irgendwie

00:49:35: ratschlag holen oder was weiß ich, also lauter

00:49:39: solche Sachen, so Bericht erstellen, Artikel,

00:49:42: bla stopp. Sprichst du von welcher KI sprichst du?

00:49:46: Also von generativer KI. Ah, okay, okay. Weil ich hätte mich gesagt, wenn KI im

00:49:50: Allgemeinen, hätte ich tatsächlich gesagt, ich meine KI ist ja viel

00:49:53: mehr, habe heute die Woche tatsächlich einen Vortrag gehalten und habe da auch mal die

00:49:58: die Teilnehmer mal abgeholt, was eigentlich künstliche wirklich bedeutet und welche

00:50:02: Teilgebiete es auch gibt. Und KI ist ja im weitesten Sinne sind es

00:50:06: Computersysteme oder ist ein Teilgebiet der Informatik, die sich damit

00:50:10: beschäftigt, menschliches Wissen, menschliche kognitive Fähigkeiten mittels

00:50:14: Computersysteme abzubilden. Und da zählt auch tatsächlich einfache regelbasierte Systeme zählen auch

00:50:19: dazu, regelbasierte Systeme, also hat nichts

00:50:23: mit nichts, gar nichts mit Sprachmodellen zu tun, die mich überhaupt nicht

00:50:27: regelbasiert funktionieren. Und dann

00:50:32: habe ich auch gesagt, ja welche Anwendungen von KI glauben sie denn jetzt schon zu

00:50:36: benutzen, ohne dass sie es merken? Und da war eine Anwendung tatsächlich, die ich

00:50:40: da mit erwähnt habe, ist Empfehlungssysteme.

00:50:44: Das heißt, wenn du bei Amazon hast dein Warenkorb

00:50:48: und dann sagst du, andere Kunden haben auch das gekauft oder

00:50:52: du bist in Spotify, hörst ein Lied, kriegst ein anderes Lied vorgeschlagen,

00:50:56: gleiche bei Google Video, bei Netflix. Also meine

00:50:59: Empfehlung, Tipp wäre gewesen, tatsächlich Empfehlungssysteme sind,

00:51:04: sind relativ weit oben, weil die gefühlt in jedem sozialen Netzwerk,

00:51:08: die funktionieren nur so mit Empfehlungen, mit Content entsprechend dir

00:51:12: vorzuschlagen, der dir idealerweise gefällt, dass du möglichst

00:51:16: viel Zeit dort verbringt. Deswegen meine meine, mein Tipp wäre gewesen, Empfehlungssysteme ohne

00:51:20: es zu wissen. Und eigentlich ist die Antwort, wenn man ein bisschen länger nachdenken

00:51:25: dürfte, wird man darauf kommen.

00:51:28: Menschen teilen ihre Geheimnisse mit ChatGPT.

00:51:31: Ergo dient ChatGPT für viel als Therapeut.

00:51:36: Sehr spannend. Früher hat man gesagt, ich habe auch letztens Jahr schon wieder

00:51:41: gejoked, ich habe gesagt, da gibt es wieder so,

00:51:45: wie heißt das, auf Instagram gibt

00:51:48: es solche Reels, wo sie also Parodien, Parodien, das wollte ich sagen,

00:51:52: Parodien. Früher hat man ja gesagt so ja hier, nimm alles, aber schau dir ja

00:51:56: nicht meine WhatsApp Verlauf an oder WhatsApp Chats, jetzt müssen

00:52:00: weiter WhatsApp, ja, schau an, schau ja nicht Chat schau ja nicht an, was ich

00:52:04: ChatGPT alles frage. Es gibt ja mittlerweile sogar in den,

00:52:08: also zumindest bei Gemini gibt es so einen Inkognito Modus, da kann man dann speziell

00:52:12: spezielle Fragen stellen. Cool, cool, cool. Also Therapeuten

00:52:17: berichten, dass ihre Klienten heimlich nutzen und dass sie damit zufrieden

00:52:22: sind. Manche Menschen finden es einfacher, einem Chatbot ihre Probleme zu erzählen als

00:52:26: einem Menschen, weil sie sich nicht beurteilt fühlen. OK,

00:52:30: plus Therapeut kostet Geld und

00:52:34: so weiter und so weiter. Ja klar ist Therapie

00:52:38: heißt ja auch nicht nur zuhören, sondern menschliche Beziehung,

00:52:41: empathische Reaktion, Erkennen von Mustern. Also wenn Therapeut mit dir

00:52:46: redet, ein Therapeut analysiert dich ja ganz anders,

00:52:49: Bewegung und so weiter. Wobei ich immer sage Klammer auf, aber bald kann

00:52:53: das KI auch Klammer zu, also nächste Berufsgruppe.

00:52:57: Ja, lass mal anders, lass uns das mal anders definieren. Wir sagen mal so,

00:53:00: es gibt kaum Plätze bei Therapeuten und jetzt entlastet KI

00:53:05: die Therapeuten, entlastet und hilft vielleicht dem einen oder

00:53:09: anderen wirklich. Ich meine, ich bin da tatsächlich ja zwiegespalten.

00:53:16: Lass mich noch mal meine Gedanken zu Ende führen. Und zwar es entlastet die

00:53:20: Therapeuten. Aber jetzt, wir haben ja so eine, so eine, so eine Pyramide,

00:53:24: ne? Zeit und Anzahl der Plätze, die von Therapeuten gefordert werden versus

00:53:29: Anzahl der Therapeuten. So, jetzt rast

00:53:32: das Ganze exakt in die Gegenrichtung.

00:53:35: Jetzt ist es nämlich so, dass immer mehr menschen sich mit ChatGPT beraten

00:53:40: lassen, immer mehr Aufgaben ChatGPT übernimmt und immer mehr Entwicklung und Technik.

00:53:44: Jetzt stell dir vor, ich könnte meine Kamera hier anmachen, meinem MacBook,

00:53:48: es schaut mich an, analysiert mein Gesicht, okay,

00:53:51: schaut nach links, rechts, was ist und so weiter, Bewegung und so weiter und zack,

00:53:56: hast du schon viel, viel mehr Informationen in so einer KI drin. Und dann

00:53:59: eben ist RACE jetzt genau entgegengesetzt und zwar die Therapeuten müssen sich jetzt

00:54:04: was einfallen lassen, bevor sie gar keinen mehr haben, der reinkommt für einen

00:54:08: Tag oder was weiß ich, wie das ist. Genau, ich wollte sagen,

00:54:12: ich bin skeptisch, aber noch ein Kommentar. Ja,

00:54:16: ich glaube trotzdem nicht, dass sich Therapeuten Angst haben müssen

00:54:20: um ihren Job. Noch ganz im Gegenteil. Aber kann

00:54:24: durchaus sein, dass es ein Prozess wird, der einfach mit der Gesellschaft sich entwickelt.

00:54:28: Schau die neue Generation an, die kommunizieren komplett anders,

00:54:32: die telefonieren nicht mehr Die schreiben nur noch WhatsApp

00:54:36: Nachrichten. Was ich damit sagen möchte, ist, dass vielleicht in 10, 15 Jahren tatsächlich die

00:54:41: Jugend, die jetzt mit Sprachmodellen aufwächst, ein komplett anderes Verhältnis zu denen

00:54:45: entwickelt und sagt, okay, ich bevorzuge lieber tatsächlich eine, wie du schon

00:54:49: gesagt hast, ich bevorzuge das Gespräch mit einer KI, bevor ich zu einem

00:54:53: Menschen gehe. Und dann wird sich tatsächlich das Bild ändern. Was ich sagen wollte,

00:54:56: ist noch, warum ich kritisch bin, ist natürlich, baust du als Mensch

00:55:00: gegebenenfalls auch irgendeine Beziehung auf, irgendeine Art und Weise eine

00:55:05: Beziehung auf zu einer KI. Und es gab ja auch den Fall in den USA,

00:55:08: wo glaube ich, Ein junger Teenager,

00:55:13: 15, 12 über Monate mit, ich weiß nicht,

00:55:17: welche Sprachmodelle es war, mit seinen

00:55:21: Problemen gesprochen hat und irgendwann die KI, ich weiß nicht, was es war, kann ich

00:55:24: leider nicht sagen, dem empfohlen hat, Suizid zu begehen und er hat

00:55:28: es gemacht. Und ja,

00:55:31: siehst du mal, welche Risiken du am Schluss hast. Das wird der Therapeut

00:55:35: nicht tun. Okay, aber noch mal, also wir reden von trotzdem einer frühen

00:55:39: Entwicklung der KI. Heute sind die ja wirklich wesentlich, wesentlich besser

00:55:43: und wir reden gar nicht von so einem langen Zeithorizont. Und die

00:55:47: Vorfreude ist wirklich zu wissen, was passiert eigentlich heute in einem Jahr.

00:55:50: Man denkt sich, was kann jetzt da noch kommen, Vor allem, wie du schon sagst,

00:55:54: mit der Kamera. Also diese extremen Fortschritte auch in in Multimodalität.

00:55:58: Also ich glaube, dass Text alleine, würde ich

00:56:02: behaupten, tatsächlich ein gewisses Plateau erreicht.

00:56:06: Da ist nicht mehr viel rauszuholen. Aber eben diese Multimodalität mit

00:56:11: Video erstellen, Audio erstellen, Präsentation in Echtzeit,

00:56:15: Video erkennen, in Echtzeit, Video manipulieren gegebenenfalls.

00:56:19: Also Deepfake, ich hab was für dich. Es gibt

00:56:23: ja durchaus Sprachen auf dieser Welt, bei dem ist die Tonalität

00:56:26: eines Wortes entscheidend. Und ich glaube, deswegen ist

00:56:30: dieses Thema Speech auch so gehypt.

00:56:33: Die Art und Weise, wie du Worte aussprichst, können ja in gewissen Sprachen die

00:56:38: Bedeutung verändern. Also die Frage, die sich die Autoren

00:56:42: stellen in dem Fall ist, eine KI kann Ratschläge geben, aber kann sie wirklich heilen?

00:56:48: Das ist so. Ich hab gesagt,

00:56:53: wenn das psychische Problem nicht allzu gravierend ist, kann es

00:56:57: durchaus auch helfen, mal jemanden zu haben, mit dem man sprechen kann. Ich glaube,

00:57:01: dass das eines der Großen Probleme der Zukunft Einsamkeit

00:57:05: sein wird. Einsamkeit,

00:57:08: ja. Wenn da ein Sprachmodell hilft, why not?

00:57:11: Es ist zwar natürlich kein echter Ersatz für einen zweiten Menschen, für ein

00:57:15: Gegenüber, für einen Freund, aber vielleicht hilft dem einen oder anderen doch weiter.

00:57:19: Jetzt habe ich noch ein Highlight. Unsere Zuhörer haben

00:57:23: ja heute in unserem Einstieg Du hast mir verschiedene Musik Intros

00:57:29: mir geliefert und jetzt hast du mir auch was Neues geliefert und

00:57:33: zwar eine schöne albanische Musik, weil Albanien

00:57:40: hat weltweit, hat den weltweit ersten AI Made

00:57:44: Minister ernannt, eine Position, die KI nutzt, um Korruption

00:57:48: in Verträgen aufzudecken. Das ist faszinierend, weil es

00:57:51: zeigt, wie KI in Regierungen eingesetzt werden kann, um Transparenz zu schaffen.

00:57:55: Wie geil ist das denn? Und das ist jetzt endlich mal sinnvoll eingesetzt,

00:57:59: oder kein KI generierter Influencer, sondern KI

00:58:03: generierter Minister, Beamter, viel günstiger.

00:58:07: Tut ja nichts. Ein kleiner Tipp hier an unsere Regierung.

00:58:11: Also man könnte die Leute einfach auch mit KI ausstatten erstmal

00:58:15: und dann ersetzen. Ich habe aber nichts gesagt.

00:58:20: Das wäre mal interessant. Also tatsächlich mal die,

00:58:24: ich meine klar, Sprachmodelle und jetzt vor allem jetzt

00:58:29: solche Tools wie der Microsoft Copilot, das sind Industrieunternehmen.

00:58:32: Ich behaupte jetzt einfach mal, dass es fast kein Unternehmen

00:58:36: gibt, die jetzt die Microsoft Umgebung haben, die jetzt nicht irgendwie zumindest

00:58:41: den Co Piloten zulassen. Mich würde mal interessieren, wie es tatsächlich in

00:58:45: staatlichen Einrichtungen ist, Rathäusern, Landratsämtern, wie die damit

00:58:49: umgehen, ob die einfach noch gerade das Internet erfunden haben oder ob die tatsächlich schon

00:58:53: auf der Welle mitreiten. Das wäre interessant. Ja, ich habe da keinen Einblick,

00:58:57: Ich habe Mini Infos. Und zwar habe ich gestern zufällig jetzt

00:59:01: gestern hatte ich ein Gespräch mit einem Account

00:59:07: Executive von Microsoft in München und

00:59:13: wir haben ausgetauscht und da ging es eigentlich darum,

00:59:16: ich habe mir mal einen Überblick verschafft. Microsoft souveräne

00:59:21: Cloud Umgebung, Public Private und so weiter. Was er gesagt hat,

00:59:25: war sehr spannend. Er hat gesagt, also diese,

00:59:28: die kommen ja aus dieser Cloud Welt und machen wir es, machen wir es nicht.

00:59:32: Vor zehn Jahren, weißt du noch, wo jeder gesagt hat, ja, machen wir es,

00:59:34: machen wir es nicht Und die Amerikaner und die Amerikaner und so weiter.

00:59:37: Was ich sagen will, ist, er hat klipp und klar gesagt, dass staatliche

00:59:43: Einrichtungen längst auf dem Trip sind, eben in so eine Azure

00:59:47: Cloud Umgebung nicht nur einzusteigen, sondern schon längst da

00:59:51: sind. Natürlich ist das Thema souveräne Cloud, also sprich

00:59:56: die Daten liegen in Europa, ein Riesenthema.

01:00:00: Gleichzeitig kann man natürlich ein bisschen schmunzeln, wer diese Sache von AWS

01:00:04: mitbekommen hat neulich. Ich glaube, das ging um Atlation.

01:00:07: Nee, nee, das war tatsächlich Cloudflare.

01:00:10: Cloudflare, Aber ist Cloudflare nicht AWS? Nee, nee, nee, nee,

01:00:14: nee, nee. Cloudflare ist ein Netzwerkprovider,

01:00:19: der auch bei vielen Diensten einfach vorgeschalten wird,

01:00:23: um Netzwerkattacken zu vermeiden,

01:00:27: die auch dieses ganze

01:00:31: Thema Bot Erkennung, aber das heißt ja, dass mein Verkehr meiner Daten über

01:00:35: USA dann läuft, weil da ist ein Server ausgefallen. Ja, ich weiß nicht,

01:00:39: ob die auch mittlerweile Rechenzentrum hier haben, aber das hat eigentlich

01:00:43: wieder gezeigt, wie abhängig wir sind. Da ging es jetzt gar nicht darum, dass AWS

01:00:46: ausgefallen ist, sondern ich glaube, haben das nicht letzte Woche tatsächlich diskutiert mit

01:00:51: dem Cloud Flashern. Es ist halt ein Netzwerkdienst ausgefallen und man sieht, wie tief der

01:00:54: verankert ist in tausenden Diensten Und es ging Halt einfach mal ChatGPT nicht. Ich glaube,

01:00:58: wir haben geschrieben, ChatGPT ging nicht. Warum? Weil eben

01:01:01: dieser Netzwerkprovider ausgefallen ist. Ja, aber nochmal,

01:01:05: also Cloudflare kannst du ja nutzen, aber die müssen ja dir einen

01:01:10: Knoten, glaube ich, heißt es in der Netzwerksprache, einen Knoten in deiner Region

01:01:14: anbieten. Sonst geht es ja nicht, Sonst könntest du ja nie Cloudflare nutzen. Also in

01:01:17: Europa kannst du nicht nutzen. Also das muss es ja geben. Aber trotzdem fiel einer

01:01:21: ja aus in USA und dann ging gar nichts. Ja,

01:01:25: also das ist sehr, sehr spannend. Ich muss sagen, diese kurz mal vielleicht

01:01:30: ein, zwei Sätze zu Cloud Souveränität. Ich halte davon gar nichts. Das hat

01:01:33: auch der Microsoft Babo hat das mir auch so ein bisschen übermittelt.

01:01:37: Ich finde, der ist einfach totaler Humbug. Ich denke mir so, wenn jetzt jemand

01:01:42: mich fragen würde, Kurt, welches Unternehmen ist denn,

01:01:45: welches Unternehmen in deiner Welt wäre ein Unternehmen, wo du sagst,

01:01:49: boah, die müssen aber darauf aufpassen. Mir ist kein Unternehmen eingefallen,

01:01:53: wo ich gesagt habe, boah, aber die müssen jetzt darauf aufpassen, dass sie ja cloud

01:01:56: souverän sind und in Europa bleiben zum Beispiel. Mir fällt nichts ein.

01:02:00: Man könnte sagen Bosch, Siemens und so weiter von mir aus,

01:02:03: Aber die sind ja auch zerlegt. Also das sind ja auch nicht ein Unternehmen,

01:02:06: sondern mehrere Unternehmen, also Healtheniers und

01:02:10: was weiß Ich aber stell dir mal, aber stell dir mal trotzdem folgendes

01:02:14: Szenario vor. Ja sag aus irgendwelchen Gründen,

01:02:17: welche auch immer das sind beschließt

01:02:20: Microsoft Office 365 einzustellen von heute auf morgen.

01:02:25: Ja was bedeutet das? Das bedeutet, dass 99 Prozent

01:02:29: aller Unternehmen weltweit, ne weltweit, es gibt ganz viele Länder, die haben das nicht deutschlandweit.

01:02:34: Alle nutzen Microsoft. Alle sagen wir mal 80 Prozent aller Unternehmen sind

01:02:40: im Arsch. Und jetzt frage ich dich wie wahrscheinlich ist das?

01:02:44: Es ist nicht wahrscheinlich, aber ich meine klar, du hast immer, wenn du ein gewisses

01:02:48: Risiko hast du eine, du hast eine Eintrittswahrscheinlichkeit und du

01:02:52: hast einen letztlichen Impact und Impact ist riesig,

01:02:56: aber Eintrittswahrscheinlichkeit halt sehr sehr genau. Genau Und das ist genau wo wir halt

01:03:00: wir Menschen, also ich habe es bei in Seat haben wir so ein Spiel gemacht,

01:03:03: wo Menschen sind in riesigen Abschätzen extrem

01:03:07: schlecht, weil man in seiner eigenen Blase lebt. Das ist die Erklärung,

01:03:11: das ist die eigene Blase. Ich habe auch neulich wieder gehört,

01:03:15: aber Kurt, was passiert, wenn hier die Bude abraucht?

01:03:19: Ich habe gesagt ja und jetzt dann Ja aber dann ich habe

01:03:24: gesagt, wenn die Bude abbr nach Hause oder also da brauchen wir jetzt nicht lange

01:03:27: drüber diskutieren. Ja, aber was ist, wenn der Server in Frankfurt explodiert und

01:03:31: dann von AWS Ich hab wo ist denn hin?

01:03:35: Ja, es gibt ja irgendwie was Es gibt ja Stackit es gibt ja SAP Cloud.

01:03:40: Habe meinem Buddy von Microsoft nachgefragt. Ich habe gesagt,

01:03:44: hey SAP Cloud hat er gesagt, ja, aber wir betreuen die SAP Datenzentren.

01:03:49: Das passiert alles auf Azure. Ich so, okay,

01:03:52: okay. Dann haben wir gefragt, ja wie ist AWS und so weiter? Ja, also alle,

01:03:58: sogar die Cloud Provider, die wir so benennen, basieren alle auf

01:04:02: Techniken, die irgendwo wieder zusammenhängen. Richtig.

01:04:06: Das wird dann oft transparent bei eben du hast einen gewissen Ausfall in irgendeinem Knoten

01:04:11: von AWS und dann siehst du mal, wo überall die Lichter ausgehen. Genau, genau.

01:04:14: Denkt ihr denn wirklich, dass alle, also denkt ihr, wir sind tollpatschig,

01:04:19: wenn wir Software entwickeln, wenn wir Produkte auf den Markt bringen und alle anderen USA,

01:04:23: die sitzen, keine Ahnung, sind super intelligent, forget it.

01:04:27: Die wissen selber nicht, wie das verdrahtet ist. Ich kann

01:04:31: euch ebenfalls auf die Folie schreiben, ich versichere euch da

01:04:35: passiert gar nichts. Verstehst du was ich meine? Also wir vergessen manchmal,

01:04:39: dass alles einfach nur Menschen sind, um Gottes Willen. Wahnsinn.

01:04:44: Christian, jetzt gucke ich gerade,

01:04:49: oh ja, wir haben eine gute Stunde.

01:04:53: Hast du noch News? Hast du noch irgendwas gelesen, gehört, wo du sagst spannend,

01:04:58: sollten wir heute unbedingt loswerden? Ja, ich hätte tatsächlich gut, ich glaube,

01:05:02: das können wir auf nächste Mal verschieben. Ich habe ja diesen

01:05:06: intensive Kurs von Google Map gemacht, echt interessante Learnings

01:05:10: mitgenommen. Lass uns das nächste Mal diskutieren. Aber einfach weil es so aktuell ist,

01:05:14: würde ich noch, weil es auch zu Nanobanana Pro passt,

01:05:17: noch kurz ein neues Modell vorstellen. Tatsächlich auch interessant

01:05:21: aus Deutschland, eines der wenigen deutschen KI Modelle, generativen KI

01:05:25: Modelle, die wirklich vorne mitspielen und zwar Flux hat sein

01:05:29: neues Modell rausgebracht, also im Bildgenerierungsmodell.

01:05:34: Flux war, ich weiß gar nicht, wann die das erste Mal rausgekommen sind,

01:05:38: schon ein Gamechanger und haben jetzt mit Flux 2 nachgelegt.

01:05:42: Ist tatsächlich, ich glaube in

01:05:47: der Liga wie Nanobanana schnell

01:05:51: kann Text erzeugen, kann auch wirklich den Kontext behalten,

01:05:55: wenn es um Bild to Bild Generierung geht,

01:05:59: hat auch ein Schnellmodell, das schneller geht und wenn

01:06:05: es in Richtung Cloud Souveränität wieder geht, haben auch wie beim ersten Modell

01:06:09: eine Entwicklungsversion mit Open Weight, das heißt, die kannst du

01:06:14: dir runterladen und auch lokal betreiben, das heißt, wenn du also lokal betreiben

01:06:17: oder trainieren für für ein entsprechendes Retraining

01:06:21: benutzen, das heißt, wenn du eine datenkritische, eine sicherheitskritische Anwendung hast

01:06:25: und sagst okay, du brauchst ein State of the Art Modell, dann ist es eines

01:06:29: der wenigen Modelle, die wirklich vorne mitspielen, die du auch nutzen kannst

01:06:32: bzw. Auch trainieren kannst lokal in deiner in deiner Infrastruktur,

01:06:36: wenn du GPU rich bist, wie man so schön sagt, was ich nicht bin

01:06:40: leider. Wahnsinn. Wahnsinn. Christian, wir werfen ja mit den Begriffen um

01:06:44: uns herum, also wir reden auf jeden Fall über ich we

01:06:48: den AI Intensive Course, ich glaube so hieß er,

01:06:52: ne? Ich meinte eher was diese Banana ist von

01:06:57: Google. Gemini ist das ein, ist auch von Google Bildgenerierung.

01:07:01: Gemini ist letztendlich das oder die Gen Plattform

01:07:06: von Google, also praktisch das ChatGPT halt von Google.

01:07:09: Okay Und genau Flux, wie gesagt,

01:07:13: dieses Bildmodell aus dem Schwarzwald Deutschland, made in Germany und

01:07:17: spielt vorne mit. Sehr cool, sehr cool, toll. Zu Cloud noch

01:07:22: ein Thema, weil das immer wieder aufkommt, oder?

01:07:25: Thema Cloud und wo gehen wir denn hin und gehen wir woanders hin und machst

01:07:29: denn und das und das. Ich sage euch eins, der Christian und ich haben jetzt

01:07:32: mal eine Erfahrung gehabt, das ist schon Jahre her. Ich bezweifle, dass sich das geändert

01:07:36: hat, weil alle anderen laufen ja auch Vollgas. Wir haben mal

01:07:40: unseren Weg damals mal versucht mit einer deutschen Cloud,

01:07:43: als wir gemeinsam noch gearbeitet haben, weiß noch, wie wir verzweifelt sind.

01:07:47: Wir sind komplett verzweifelt, banalen Dingern, irgendwelche Container,

01:07:51: Docker Container zu hosten. Wir sind einfach verzweifelt. Und ich sag's noch

01:07:55: mal, da kommen wir nicht drumrum dafür. Das ist, das sind wir einfach nicht.

01:07:59: Ich sag's einfach auf den Punkt. Deswegen werden wir nie aus

01:08:04: dieser Blase rauskommen. Wir werden auch, wenn da oben drüber ein Etiketten

01:08:08: anderer ist, ist unten drunter irgendwas, was in US Amerika betreut wird

01:08:13: oder gestaltet worden ist oder entwickelt worden ist oder weiterentwickelt wird.

01:08:17: Das ist ein guter Punkt, den du sagst. Was mir da gerade einfällt, ist,

01:08:20: dass irgendwas irgendwo in der Schicht unten drunter ist, was mittlerweile ja

01:08:25: passiert ist. Das ist eher philosophisch, egal ob es jetzt Software ist

01:08:28: oder Cloud, dass es so viele Abstraktionsschichten gibt.

01:08:32: Das heißt, wenn du von Cloud sprichst, beispielsweise nutzt jetzt einen, du nutzt

01:08:37: jetzt einen, weiß ich nicht, ein Kubernetes

01:08:41: in der Cloud oder eine Datenbank, da stecken

01:08:45: so viele Abstraktionsschichten darunter. Ganz ganz unten hast du irgendwo eine physikalische

01:08:49: Kiste stehen, Server, der steht in irgendeinem Raum, der ist klimatisiert, der ist

01:08:53: abgeschlossen, der ist vielleicht mit gutem Brandschutz versehen,

01:08:57: Sicherheit aussenrum, dass da keiner rein kann. Und darauf gibt

01:09:01: es dann eine Virtualisierungsschicht, da gibt es eine Virtualisierungsschicht, dann gibt

01:09:05: es dann vielleicht noch eine zweite Redundanz obendrauf, dann gibt es einen Managed Service und

01:09:09: keine Ahnung, gibt es noch eine Web Oberfläche, wo du dich einloggen kannst

01:09:13: und so weiter. Also du hast mittlerweile so viele Abstraktionsschichten,

01:09:17: wo du am Schluss eigentlich gar nicht mehr weißt, wo bist du eigentlich, wo bist

01:09:20: du zu Hause, wo läuft denn dein Dienst gerade? Das Ganze noch georedundant,

01:09:24: Das heißt, du hast irgendwie eine MongoDB oder eine Postgres die Geo redundantes

01:09:28: mit zwei. Also das heißt am Schluss machst du eine Datenbankabfrage

01:09:33: und du weißt am Schluss gar nicht mehr, wo liegt denn das Bit auf welchem

01:09:36: Server. Also ja, man kann es rausfinden, aber was ich sagen

01:09:40: möchte so viele Abstraktionsschichten und betrifft tatsächlich auch moderne Programmiersprachen.

01:09:44: Am Schluss musst du irgendwie Maschinencode generieren, aber da gibt es VM hier,

01:09:49: dann gibt es noch virtuellen Container da und nochmal

01:09:53: gepackt hier und nochmal kompiliert und dann am Schluss ein Docker Container und der in

01:09:56: einem kombiniertes läuft. Also so viele Schichten, dass es mittlerweile echt

01:10:00: kompliziert ist das zu verstehen. Jetzt sind wir echt abphilosophiert,

01:10:05: aber du hast richtig Lauf.

01:10:08: Ich habe dich gar nicht mehr angeschaut gesehen wie du kurz eingenickt

01:10:12: hast. Ich hab kurz mal kurz mal war ich mal im Paralleluniversum hin und wieder

01:10:16: zurück, habe mich selbst verloren.

01:10:20: Spannend. Ich habe noch vielleicht mal

01:10:25: Christian, vielleicht fällt uns noch gegen Ende mal ein zwei lustige Stories ein,

01:10:28: das wäre ganz gut. Jetzt haben wir die Folge ja wirklich brutal vollgepackt mit AI

01:10:32: Themen. Ich hoffe mal, dass den unseren Zuhörern zuhören. Das gefällt

01:10:36: trotzdem haben wir immer wieder was Lustiges dabei. Ich nicht heute heute ja

01:10:41: doch, du hast heute Excel Story mal ausgepackt und paar andere lustig dieses dieses Traumatisieren.

01:10:47: Okay, ich wollte nur Info loswerden.

01:10:51: Ich war wie gesagt in dieser Schulung. Ich bringe jetzt auch zu den nächsten Folgen

01:10:55: mal paar Ideen mit. Die Dinge, die wir da gelernt haben und die wir da

01:10:58: machen war super. Erst mal eine Sache

01:11:03: war interessant, wenn du in so eine wirklich

01:11:07: hochdotierten und sehr anspruchsvollen Schulung reingehst. Also die Mindestanforderungen sind

01:11:11: sehr hoch. Ich bin da auch nur deswegen reingerutscht, weil ich ja

01:11:15: Glück im Unglück sehr früher angefangen habe selbstständig zu sein und dann

01:11:19: hast du natürlich mit 38 hast du da 15 Jahre Berufserfahrung.

01:11:24: Das ist die Mindestvoraussetzung die sagen du musst 15 Jahre vorweisen können,

01:11:28: dass du da mitmachen kannst und noch paar andere Sachen. Okay und die Kohle musst

01:11:32: du auch noch zahlen, die wollen auch ein bisschen Geld. So was ich aber sagen

01:11:35: wollte ist geht immer davon aus, das ist wieder mein

01:11:38: Learning, das sind alles nur Menschen. Ich bin dahin.

01:11:41: Das sind alles hochrangige Tiere ohne Wenn und aber. Okay,

01:11:45: was weiß ich. Also wenn ihr paar Namen hören wollt, ich habe

01:11:50: letztens erst gejoked, der singaporeanische

01:11:56: Botschafter in Frankreich war mit

01:12:00: dabei, der Racing Chef

01:12:04: von Saudi Arabien war dabei,

01:12:07: Logistikchef über Overall Logistik in

01:12:11: Saudi Arabien, das ist eine Dame, war dabei.

01:12:15: Was habe ich noch? Lauter solche, also wirklich nicht nur

01:12:19: Saudi Arabien, jetzt nicht falsch verstehen. Toyota,

01:12:22: Honda Chef Malaysia war dabei und Toyota.

01:12:25: Also genau, Honda Chef Malaysia, Toyota Chef auch

01:12:30: war dabei oder Toyota, einer der Menschen Director sind meistens

01:12:33: mehrere, waren dabei, also hohe Tiere. Ich sage euch was, alle haben die

01:12:37: gleichen zehn Probleme, die wir als Typen kennen.

01:12:41: Der eine redet nicht viel, der andere zu viel,

01:12:45: kümmert sich zu viel. Wirklich, haben wir einen gehabt, dann gibt es

01:12:49: den anderen wiederum kümmert sich nicht um sein Team. Dann gibt es einen,

01:12:53: den mag der Chef nicht. Dann gibt es die,

01:12:56: die werden von allen gemocht, haben super Bewertungen. Wenn du mit denen

01:13:01: sprichst, haben die ganz andere Probleme. Da geht es zum Beispiel darum,

01:13:05: die nehmen sich für sich keine Zeit, OK, die kämpfen

01:13:09: mit sich, wie sie sich für sich selbst Zeit nehmen können und klammern sich

01:13:13: an Dinge, zum Beispiel Kinder oder was weiß ich was.

01:13:16: Und du hast auch ein anderes Beispiel, was auch sehr sehr sehr

01:13:20: prägnant war. Ich fand das, ich finde das Kennenlernen dieser Menschen einfach super spannend.

01:13:25: Zum Beispiel auch Typen wie du, die mit

01:13:29: einem wenn er keinen Bock auf das Gespräch gerade hat, ignoriert er dich einfach.

01:13:34: Und noch mal, das ist eine Schulung, nicht so einfach so hey, ich gehe jetzt

01:13:38: da mal hin, habe hier meine 350 bezahlt. Also die müssen da richtig hinblättern,

01:13:41: die Unternehmen, also es ist kein Scherz, richtig hinblättern.

01:13:44: Und dann denke ich mir,

01:13:48: einige haben echt ein Change vor sich, wo man sagt, okay, das ist noch

01:13:52: in dieser plausiblen Welt. Also Change ist für jeden schwierig,

01:13:56: aber es ist plausibel,

01:14:00: wenn jemand zum Beispiel engere Kommunikation und was weiß ich besser, besser Netzwerken

01:14:04: soll und so weiter. Das sind so Sachen, wo man sagt, ah OK, spannend,

01:14:06: sich besser werden. Andere müssen sich richtig knacken,

01:14:10: weil die müssen erstmal normal werden. Aber was

01:14:14: ich, also die Hauptmessage ist, das sind alles Menschen.

01:14:18: Alles Menschen. Ich weiß noch den einen,

01:14:22: Pass auf, also wir haben so eine, wir haben, also wir haben wirklich sehr krasse

01:14:25: Profs gehabt. Einer davon war nämlich jemand, der unglaublich begabt und

01:14:30: bekannt war und mehrere Bücher geschrieben hat über Verhaltenspsychologie zum Beispiel und

01:14:34: Verhalten, aber auch Mimik, Gestik und Vortragen

01:14:40: Und in dem Zuge haben die ihn, haben sie

01:14:44: ihn eher genommen und haben den

01:14:50: hergenommen. Also der Prof. Hat einer der Kollegen

01:14:54: daher genommen, der folgendes nicht konnte oder folgendes hat er gemacht, das war super

01:14:58: spannend, er einen Vortrag gehalten und hat sich sozusagen bewegt vorne

01:15:02: und hat so ein klassisches John Wayne gemacht. John Wayne,

01:15:05: vielleicht kennst du es nicht, aber wenn jemand zum Beispiel einen Vortrag hält, die Hände

01:15:09: benutzt während des Vortrags und dann so, ich sag

01:15:13: mal, stell dir mal vor, jemand, der mit beiden Händen so eine Pistolenbewegung macht und

01:15:17: auf den Leuten zeigt, dann sieht es so aus, als ob er auf die Leute

01:15:20: schießt. Dann hat der Prof. Gesagt, du musst aufhören auf die Leute zu schießen.

01:15:25: Alle so was vorhin zusammenbrochen gibt

01:15:29: es auch auch der betreut, keine ahnung, ich glaube 2000 Mitarbeiter

01:15:34: und betreue keine 4,8 Milliarden. Also was ich

01:15:38: da sagen will ist, die haben alle struggle, alles Dinge,

01:15:42: die wir kennen, kann nicht gut netzwerken, vielleicht nicht nahbar zu nah,

01:15:46: laber zu viel, labert zu wenig,

01:15:49: keine Ahnung, schießt ab. Leute sind halt einfach Menschen,

01:15:52: ja, sind einfach Menschen und die da wirklich dahin geschickt worden sind,

01:15:56: ich würde sagen, so 20 Prozent haben sich selbst hingeschickt, also teilweise selbst finanziert,

01:16:01: zur Hälfte Unternehmen, die andere Hälfte von Unternehmen hingeschickt

01:16:05: und die Gründe übrigens, falls euch interessiert, so ein AMP Advanced

01:16:09: Management Programm, da wirst du hingeschickt zum Beispiel wenn es schon feststeht,

01:16:13: dass du in drei Monaten CTO wirst, CFO wirst,

01:16:16: CEO wirst, dann ist das sozusagen für das Top Management

01:16:20: die Verifizierung. Okay, wenn der Kerl oder die Dame wieder zurückkommt,

01:16:24: spricht unsere Sprache. Okay, also klar, Tag, Tag, Tag,

01:16:28: Tag, Tag, du bist da, los geht's. Also das

01:16:33: war mal wieder mein Learning und ich habe dir heute ja gesagt,

01:16:37: ich habe, Christian, ich habe jetzt so viele Leute um mich herum kennengelernt, aber nicht

01:16:40: in der Schulung, aber in der Welt, wo wir leben im Business.

01:16:44: Also wenn die Business machen

01:16:48: können, dann müssen wir uns irgendwann echt was überlegen,

01:16:52: aber glaube ich schon mehrmals gesagt, da müssen wir uns echt irgendwas überlegen.

01:16:56: Aber gut, soviel zu Leadership in der nächsten Folge

01:17:00: packe ich noch so paar Themen rein. Ich weiß nicht, ob ich Phoenix Encounter reinbringe,

01:17:04: ist auch super spannend, glaube ich. Das bin ich rein. Und dann habe ich auch

01:17:07: noch ein paar Themen, die ich im Harvard Business gelesen habe, die super spannend sind.

01:17:10: Da geht es wieder um Leadership und Führung und was das bedeutet. Gibt es wieder

01:17:13: tolle Studien und mit steht auch wieder einiges.

01:17:16: Genau, in diesem Sinne. In diesem Sinne

01:17:20: würde ich sagen, Spaß gemacht. Wie immer. Wie immer. Den Zuhörern haben heute echt

01:17:25: brutal viel, glaube ich. Da haben wir wirklich geschossen. Jeder ist eins,

01:17:29: wenn man eskaliert.

01:17:33: Ja, ist aber, glaube ich, gut geworden. Und wie gesagt,

01:17:37: wir freuen uns alle, wenn ihr uns eine Nachricht schickt auf LinkedIn

01:17:41: oder wo auch immer, dass wir wissen, okay, wir werden echt zugehört und das nicht

01:17:46: irgendwelche Bots aus China, die unsere Sprache analysieren.

01:17:48: Echte. Wir sind echt. Genau. Ansonsten vielen

01:17:52: Dank und bis zum nächsten Mal. Ciao.