00:00:00: Wenn du wissen willst, wie du es schaffst, deinen Content genauso klingen zu lassen, wie
00:00:03: dein Unternehmen klingt und das über alle Kanäle verteilt, dann ist hier die Folge genau
00:00:07: die richtige für dich. Ich habe heute einen Gast, einen Softwarehersteller,
00:00:11: von dem du mit Sicherheit schon mal irgendwo was gehört oder gesehen hast. Und zwar
00:00:15: ist es das Tool Neuroflash. Ist dafür da,
00:00:18: wirklich Beiträge, Textbeiträge zu generieren, aber nicht irgendwelche
00:00:22: Textbeiträge, wie du sie so mit KI generieren kannst, sondern du kannst
00:00:26: deine Markensprache festlegen, du kannst Informationen mit hochladen,
00:00:30: über die sich das Tool dann bedient und wirklich so schreibt, wie du nachher den
00:00:32: Output auch gebrauchen kannst. Aber damit ich dir jetzt nicht alles darüber erzählen muss, habe
00:00:36: ich einen Gast dabei. Den Hendrik hat mich angeschrieben und hat gefragt, ob er
00:00:40: eine Runde bei mir in den Podcast reinkommen kann. Und da ich ja mit
00:00:43: meiner Zielgruppe immer mal wieder so das Thema Content-Produktion habe und
00:00:47: viele sich fragen, wie kann ich mich davon abheben von diesem Standard KI generierten
00:00:51: Content, denke ich, ist hier die Folge genau die richtige für dich. Hendrik, schön, dass
00:00:55: du dir die Zeit genommen hast. Erzähl doch mal zwei, drei Sachen zu dir.
00:00:59: Felix, dass ich hier sein darf. Genau, wie du schon gesagt hast, also ich
00:01:03: bin Mitgründer und Co-CEO bei Neuroflash, habe
00:01:06: mein Leben lang schon Startups gemacht. Im Vorfeld hatte
00:01:10: ich ein E-Commerce-Unternehmen aufgebaut und eine Agentur und habe da
00:01:14: selbst so diesen Pain-Point gespürt, gute Texte zu
00:01:17: schreiben. Und als dann GPT-3
00:01:21: auf den Markt kam damals, war ich eben mit
00:01:24: Jonathan und Henrik und meinen anderen Co-Foundern schon dabei, mit
00:01:28: den Vorgängertechnologien, GPT-2, BERT und so
00:01:32: weiter, in unserer damaligen ersten Software
00:01:36: schon mit zu experimentieren. Und als das GPT-3 rauskam, waren wir eben einer der
00:01:39: Ersten in Deutschland, die das so verstanden haben, wie
00:01:43: das eigentlich funktioniert und haben das dann damals integriert bei uns.
00:01:47: Damals hatten wir noch einen ganz anderen Use Case bei Neuroflash, haben da auch viel
00:01:51: ausprobiert. Aber dadurch, dass GBT3 dann so
00:01:54: wirklich sehr menschenähnlich klang, ging es dann da so richtig
00:01:58: eigentlich erst los. Also in der Startup-Sprache würde man Product-Market-Fit
00:02:02: sagen. Also da haben wir wirklich gemerkt, dass Leute auch unser Produkt weiter empfohlen
00:02:05: haben. Genau. Und so ist jetzt die Reise die letzten vier Jahre. Also wir
00:02:09: sind so ein Jahr, anderthalb, vor ChatsGBT gestartet.
00:02:13: Würde ich sagen, sehr viel Glück beim Timing dabei gewesen.
00:02:17: Und genau, was mich antreibt dahinter, ist wirklich so die Technologie,
00:02:21: die Innovation. Ich glaube, jetzt eine Firma aufbauen, jetzt auch
00:02:25: gerade im Marketing mit dieser Technologie zu beschäftigen, macht
00:02:28: enorm viel Spaß. Einfach Prozesse,
00:02:32: Arbeitsabläufe, so wie ich sie vorher kannte, einfach ganz anders jetzt und
00:02:36: sehr viel effektiver und effizienter gemacht werden können.
00:02:40: Und ja, hoffe, dass wir darüber heute auch ein bisschen weitergeben können, was wir
00:02:43: da selbst so machen und dann vielleicht auch
00:02:47: für deine Kunden oder für die Community hilfreich ist.
00:02:51: Was war denn eigentlich so die Auslöser? Ich kann mir jetzt schlecht vorstellen, man steht
00:02:55: morgens früh auf und denkt sich, und jetzt gründe ich so eine Software oder
00:02:59: erstelle ich so eine Software, da gehört ja ein bisschen mehr dazu. Vielleicht noch ein
00:03:02: bisschen Background, wo kommst du denn ursprünglich her? Also ich würde mich jetzt
00:03:05: etwas überfordert fühlen, eine Software zu programmieren. Ja,
00:03:10: ich bin auch gar nicht der Techie. Also ich habe ganz, ganz früh
00:03:13: angefangen, Webseiten zu entwickeln. Also damals schon in der
00:03:17: Schulzeit, habe so ein Fernstudium in der achten Klasse gemacht
00:03:21: zum Multimedia-Designer und dadurch die ganzen Tools, Photoshop,
00:03:24: Dreamweaver, da haben wir uns noch mit HTML irgendwie gelernt.
00:03:28: Das heißt so ein bisschen, ich sag mal, es war simples Online-Marketing und halt
00:03:32: Webseiten entwickeln, es war jetzt nicht wirklich Software programmieren.
00:03:37: Und ich wurde so ein bisschen durch meine Mutter, glaube ich, inspiriert. Die ist nämlich
00:03:40: seit 35 Jahren, hat sie ihre eigene Softwarefirma
00:03:45: und wollte deswegen schon immer mehr in Richtung Technologie und was wir als
00:03:49: Innovatives machen. So ein E-Commerce war sehr, wir hatten ein Produkt,
00:03:53: was aus der Manufaktur kam, handgefertigt. Dadurch habe ich sehr
00:03:56: viel im Marketing gelernt, in Richtung Performance-Marketing, organische
00:04:00: Reichweiten aufbauen als Nischenbrand. Also habe so wirklich
00:04:04: Marketing Basics gelernt
00:04:08: und deswegen, als ich dann Jonathan kennengelernt habe auf einer Konferenz, da waren wir beide
00:04:11: Speaker, haben wir uns vernetzt. Ein halbes Jahr später habe ich
00:04:15: dann geschrieben, hey, ich bin aus meinem Unternehmen ausgestiegen, also
00:04:19: nur auf LinkedIn gepostet. Und dann hat er mich angeschrieben, hey, wir suchen jemanden, der
00:04:22: hier uns hilft. Wir haben ein Produkt, was nicht funktioniert.
00:04:26: Wir haben eine einmalige Technologie, die wir entwickelt haben, mit
00:04:30: ersten Kunden validiert. Aber wir brauchen noch mehr Unterstützung.
00:04:34: Und so bin ich dann eigentlich da auch wieder durch Glück sozusagen
00:04:38: reingekommen, dass ich Jonathan damals kennengelernt habe. Und wir
00:04:41: haben dann zusammen auf Projektbasis erstmal zusammengearbeitet
00:04:45: für zwei Monate. Und dann aber, Dann habe ich relativ schnell
00:04:48: erkannt, auch wenn da eigentlich noch alles
00:04:52: sehr chaotisch ist und wir noch nicht genau wissen, was jetzt mit der Technologie
00:04:56: geht, das war im Fortschiebetrieb, erkläre ich gleich kurz, was
00:05:00: die Technologie kann, was wir damit genau machen wollen. Ich fand es einfach
00:05:03: total faszinierend, da mal ins kalte Wasser zu gehen und da einfach von null
00:05:07: was zu lernen. Immer mit dem Glück, dass ich selbst nicht jedes Wort
00:05:11: verentwickeln musste damals, sondern wir auch schon Entwickler hatten.
00:05:14: Die Technologie, die wir bei Jonathan damals schon validiert hatten, war
00:05:18: in der Tat so eine Art Vorgängertechnologie zu den GPT-Modellen,
00:05:23: die im Endeffekt Gefühle und Assoziationen
00:05:27: auch unterbewusst von Menschen her vorsagen kann. Und
00:05:31: wie wir ja wissen, im Marketing entstehen viele Entscheidungen, ob es jetzt ein Klick oder
00:05:35: ein Kauf ist, ja im Unterbewusstsein. Und das war damals schon so ein
00:05:39: bisschen genau unser, unser, unser Sweet Spot zu sagen.
00:05:43: Wenn jetzt KI kommt, wenn jetzt GPT 3 kommt, GPT 4
00:05:46: etc., die immer bessere Texte produzieren können, dann werden wir als
00:05:50: Marketer oder als Brands sehr fähig sein, viel Content zu
00:05:54: produzieren. Aber was ist am Ende der beste Content? Der Content,
00:05:57: der meine Marke am besten wieder aufbaut, der meine
00:06:01: Zielgruppe am besten anspricht, der die Bedürfnisse und eben die
00:06:04: Menschen wirklich, sag ich mal, emotional auch
00:06:08: anspricht und als relevant anzählt. Und deswegen haben wir gesagt, die
00:06:12: Technologie ist eigentlich super spannend, eben auch unseren Kunden
00:06:15: zu zeigen, wie gut ist jetzt ihr Content, weil Content-Erstellung
00:06:19: ist ein sehr subjektiver Prozess, gerade im Agenturumfeld.
00:06:24: Du hast ja, glaube ich, dein USP ist, dass du deine Kunden sehr, sehr gut
00:06:27: verstehst. Aber bei anderen Agenturen, die sich in vielleicht in viele
00:06:30: verschiedene Brands und Zielgruppen reindenken müssen. Sehr, sehr schwer, da wirklich sehr, sehr,
00:06:34: sehr guten Kunden zu produzieren. Und ja, also ich würde sagen, viel Glück
00:06:38: dabei und einfach Offenheit und den Antrieb generell mit
00:06:41: Technologie was zu machen. Und gerade heute, wo KI auch selbst schon die
00:06:45: ersten Prototypen für dich baut. Glaube ich kann jeder am Ende eine Software
00:06:49: entwickeln, wenn man sich da reinfuchst. Also ist da die Hüte nicht mehr so
00:06:53: groß. Ja, was ich gerade eben mitgenommen habe, war
00:06:56: ja auf jeden Fall das Thema, einfach mal den Mut zu haben, irgendwas zu machen.
00:07:00: Das kann ich bei mir auch genauso unterschreiben, auch einfach mal zu sagen und das
00:07:04: probieren wir jetzt mal aus und nicht diese typische Angst zu
00:07:07: scheitern, immer in den Vordergrund stellen, was ja viele machen.
00:07:11: Das sehe ich auch so bei meinen Kunden, also die wirklich sagen und auch bereit
00:07:14: sind, jetzt mal neue Wege zu gehen, innovativere Wege zu
00:07:18: gehen. Und vor allem jetzt hier das hier mit dir.
00:07:22: Ich bin kein Freund davon, Texte eins zu eins mit GPT generieren
00:07:26: zu lassen, weil eben das, was du eben angesprochen hast, die Emotionen völlig
00:07:29: flöten geht in der Regel. Und ja, Da ist es ja auch wie bei
00:07:33: allen Modellen so shit in shit out. Also wenn du halt wenig bis
00:07:37: gar keine Inputs da rein gibst und dann davon ausgehst, dass nachher irgendwie
00:07:41: der Wahnsinns Text rausgeht, ist halt einfach nicht möglich.
00:07:44: Und da hilft natürlich so eine Software für dich oder wie du die jetzt hast
00:07:48: hilft natürlich massiv weiter. A für Agenturen,
00:07:51: die es als Dienstleistung anbieten, die wirklich sagen okay wir haben einen riesen
00:07:55: Kundenstamm, jeder Kunde hat so seine eigene Zielgruppe, seine eigene
00:07:59: Zielgruppenansprache und ich stelle es mir dann so vor, dass du wirklich ein
00:08:02: Dashboard hast, wo du die Kunden anlegen kannst, das Know-how der
00:08:06: Kunden quasi in die Software rein füttern kannst und
00:08:10: du sicherstellen kannst, egal wer das jetzt bedient, der Output
00:08:14: ist immer gut oder sehr gut und greift halt
00:08:17: vor allem immer wieder die Schmerzpunkte auch der Zielgruppe ab. Und das ist das,
00:08:21: wo ich mittlerweile auch auf LinkedIn sehe. Ich meine, du bist ja auch da unterwegs.
00:08:26: Ja, da rollen sich mir die Füßennägel hoch, wenn ich mittlerweile da teilweise die
00:08:29: Beiträge sehe, wo ich mir denke, wenn ihr gar keinen Bock
00:08:33: mehr habt, irgendwas selber zu schreiben, dann lasst es doch. Und das ist auch der
00:08:37: Punkt, weshalb ich auch mit meinen Kunden immer rangehe und sage, lasst uns
00:08:40: den Content irgendwie in Form von einem Podcast, in Form von einem Video, wie auch
00:08:44: immer, generieren und das Transkript nutzen. Da wäre
00:08:48: jetzt meine Frage, ist sowas auch in Neuroflash möglich, dass du sagen kannst, man
00:08:51: lädt auch Transkripte von fertigen Inhalten hoch und
00:08:55: nutzt diese dann, die weiter zu verarbeiten? Ja, leider
00:08:59: nicht. Das ist auch ein Anwendungsfall, den ich oder den wir im Marketing bei
00:09:02: uns sehr viel machen. Tatsächlich aber kannst du bei
00:09:06: uns Dokumente hochladen und auch lange Texte, aber es ist
00:09:10: jetzt noch nicht so perfekt optimiert so für diesen Use Case.
00:09:13: Ich gebe hier deine Podcast URL oder YouTube URL an und
00:09:17: wir transkribieren dir das und machen daraus dann direkt schon fünf
00:09:20: Vorschläge für einen Hook oder so. Das leider noch nicht, aber theoretisch
00:09:24: kannst du ein Transkript, so wie bei ChatsGBT, auch hochladen bei uns und
00:09:28: damit dann weiterarbeiten. Da haben wir genau die gleichen Längen und
00:09:31: Kontextfenster und so. Ja, so meinte ich das auch.
00:09:36: So meinte ich das auch. Das Transkript quasi nativ hochladen, jetzt gar nicht unbedingt
00:09:39: mit einer Schnittstelle, die erstmal die Audio transkripiert. Nee,
00:09:43: nee, das kannst du machen, ja. Ja, weil das ist ja... Also da sage ich
00:09:47: halt immer, das ist dann zumindest dein eigenes Wort, deine eigene Sprechweise. Du
00:09:50: könntest rein theoretisch sogar deinen Schreib- und Sprechstil aus
00:09:54: diesem Transkript ableiten. Und das sind halt so
00:09:57: Punkte, die viele einfach unterschätzen. Da wird dann gesagt, ich stelle mir einen Beitrag
00:10:01: zu dem und dem Thema. Ja, und dann erstellt ja jede KI in
00:10:04: irgendeiner Art und Weise den Beitrag zu dem Thema und dann denkt man sich beim
00:10:07: ersten Entwurf so, naja, so richtig der Knaller ist das nicht.
00:10:12: Ich weiß nicht, wie dein Eindruck ist, du bist ja jetzt noch viel länger in
00:10:15: dem Bereich KI drin, als ich das jetzt bin. Aber wenn ich so bei meinen
00:10:18: Kunden über die Schulter schaue, wie die teilweise mit KI umgehen oder auch
00:10:22: andere, da denke ich mir, ich denke mir immer schon, okay, es gibt
00:10:26: viele auf dem Planeten, die deutlich weiter sind als ich. Und wenn ich dann so
00:10:29: die andere Seite sehe, denke ich mir, ich bin schon meilenweit fortgeschritten,
00:10:33: weil ich einfach ganz anderes an das Prompting rangehe, an die Struktur
00:10:37: rangehe, dass ich wirklich ganz gezielt von vornherein schon die den
00:10:40: Aufbau gestalte. Und da ist natürlich deine Software wieder ideal für
00:10:44: Leute, die eben nicht so tief da drin stecken. Also, wir
00:10:48: sehen auf jeden Fall so ein bisschen diese, wie gut bist du schon
00:10:52: mit KI, wie stark beherrschst du das Thema Prompting, wie stark
00:10:55: möchtest du es auch vielleicht beherrschen. Dass
00:10:59: das ein elementarer, ich sag mal, Entscheidungsweg ist. Also
00:11:03: bei uns in der Software bedienen wir sozusagen beide
00:11:06: Gruppen. Du hast wie in Chatshubity ein freies Fell, wo du quasi über
00:11:10: deine Prompting Skills zu guten Texten kommst, aber wir bieten eben
00:11:14: auch sogar so eine Art Promptverbesserer oder Templates,
00:11:17: wo du gar nicht mehr prompen musst. Und da sehen wir schon, dass es auf
00:11:21: jeden Fall, wie du sagst, gerade allein, dass wir jetzt darüber reden. Ich weiß
00:11:25: nicht, ob wir immer noch die early adopter sind. Aber wenn du so diese
00:11:28: Innovationskurve, die anschaust, Wir sind auf jeden Fall ganz weit vorne und
00:11:32: es gibt so viele Leute, die eben damit noch gar nicht wirklich arbeiten
00:11:36: oder noch gar nicht verstanden haben, was es eigentlich ist. Und das ist auf jeden
00:11:40: Fall auch so ein bisschen unsere Verständigung und als unsere Verantwortung, da
00:11:43: Aufklärungsarbeit zu leisten und da eben auch viel die Leute an
00:11:47: die Hand zu nehmen. Das ist, glaube ich, extrem wichtig bei so einer neuen Technologie.
00:11:51: Wie schätzt du die Schnelllebigkeit der LLMs ein? Also jetzt gerade im
00:11:55: Moment, was da so passiert? Also du hast gerade eben die ganze Zeit gesagt, ihr
00:11:58: habt GPT eingebunden in irgendeiner Form. Habt ihr auch andere LLMs mit drin
00:12:02: oder arbeitet ihr aktuell ausschließlich mit GPT? Genau, wir sind sprachmodellunabhängig,
00:12:06: also wir können jedes Sprachmodell bei uns integrieren, testen auch immer
00:12:10: sehr viele. Tatsächlich wirklich die meisten,
00:12:14: die wir nutzen, sind alle von OpenAI derzeit, weil die
00:12:18: für den Use Case, wir machen ja sehr viele interne
00:12:21: Tests mit unseren Use Cases und gucken, haben dann gewisse Evaluierungen
00:12:26: und Benchmarks und sehen, dass da die Modelle immer
00:12:29: noch die besten sind. Und dann gibt es, sag ich mal, so ein
00:12:33: bisschen Präferenzen Richtung Chlord, für gewisse Texte vielleicht
00:12:37: wird dann Chlord mehr benutzt, aber
00:12:41: da ist schon auch hauptsächlich OpenAI-Modelle sind
00:12:44: dabei. Und die Schnelllebigkeit ist, nehme ich jetzt
00:12:48: so ein bisschen wahr, also für
00:12:52: mich zumindest persönlich war das die ersten zwei Jahre nach
00:12:55: Chatshubity sehr, sehr wichtig, dass du da sehr
00:12:59: schnell als, ich sag mal, Softwareanbieter auf die neuen
00:13:02: Modelle gegangen bist. Jetzt der Sprung von
00:13:07: 4 auf 4.5 oder von 4.0 zu 4.5 oder
00:13:11: wie auch immer, das ist kaum spürbar mehr und auch das Thema
00:13:15: von einem normalen LLM in Richtung Reasoning-Modell ist für unseren
00:13:19: Use-Case-Marketing kommt auch nur sehr selten zu
00:13:22: tragen. Deswegen jetzt gerade habe ich so ein bisschen das Gefühl, wir testen immer noch
00:13:26: sehr viel, aber wirklich die spürbare Qualitätssteigerung ist
00:13:29: kaum mehr da für unsere Kunden. Jetzt für die, die hier
00:13:33: zuhören und sich gerade fragen, redet er gerade. LLM und Reasoning.
00:13:37: Also LLM steht für Large Language Model und ist quasi so der Überbegriff für
00:13:41: alle Sprachmodelle, die man so nutzen kann. Und Reasoning, das ist jetzt bei
00:13:44: den neuen Modellen O1 von GPT hinzugefügt
00:13:48: worden. O1 Pro und Claude 3.7
00:13:51: Sonne. Reasoning bedeutet im grunde genommen dass das modell
00:13:55: bevor es einen output gibt erst noch mal so ein stück weit darüber nachdenkt was
00:13:59: für schritte erfüllt werden müssen Perplexity hat es auch mit dem Deep Research
00:14:03: heißt es glaube ich. Oder Deep Research, ich weiß es gar nicht. Deep Research
00:14:07: ist bei OpenAI und bei, ich weiß gar nicht, wie es da heißt.
00:14:11: Tiefe Suche heißt glaube ich bei Perplexity. Deep Search macht Sinn. Deep
00:14:14: Search, ja. Ja, so wie gesagt, das sind halt mittlerweile die neuen Modelle, die
00:14:18: jetzt nicht direkt ein Output geben, sondern auch darüber nachdenken und so eine
00:14:22: gewisse autonome Entscheidungsfindung durchführen, bevor sie
00:14:25: anfangen, ein Output zu generieren. Und das ist natürlich in meinen Augen ein super
00:14:29: spannender Fall, wenn du das jetzt mittlerweile auch in so Tools wie bei
00:14:33: euch implementieren kannst. Ich baue jetzt gerade die ersten Tests in n.n.
00:14:37: Auf, wo ich auch Reasoning Modelle mit implementiere und da
00:14:40: ist halt der Output, also ich finde von nicht Reasoning zu Reasoning ist der
00:14:44: Output schon noch mal deutlich besser. Genau, weil dann erst halt
00:14:48: ist es fügt einen Schritt hinzu und mal also viele Kunden von uns wollen eben
00:14:51: sehr sehr schnell auch Ergebnisse und wollen gar nicht mehr. Also es kommt sehr auf
00:14:54: die Use Case drauf an sozusagen.
00:14:58: Und das ist natürlich ein Punkt. Also Geschwindigkeit erreichst du mit so Modellen halt
00:15:02: nicht. Also wenn du den schnellen Output benötigst, dann bist du mit Reasoning
00:15:05: nicht am richtigen Platz. Definitiv.
00:15:10: Wie siehst du das aktuell so auf dem Markt? Also was ich bei euch nochmal
00:15:14: hervorheben muss, ihr seid ja aus Frankfurt.
00:15:18: Ich komme aus Frankfurt, Unsere Firma sitzt in Hamburg tatsächlich. Aber wir sind auf
00:15:21: jeden Fall aus Deutschland. Ist sie auch noch aus Deutschland. Und da klingeln jetzt bei
00:15:25: allen Datenschutzbehörden, klingeln ja da die Ohren, weil die sich denken,
00:15:29: endlich mal, Oder was heißt endlich mal, ihr seid ja wirklich schon länger am Markt
00:15:32: als viele andere Tools. Aber gerade in der
00:15:36: recht konservativen Maschinenbaubranche, Handwerksbranche,
00:15:40: die haben alle, egal wie klein, irgendwo einen Datenschutzbeauftragten. Und jetzt habt ihr
00:15:44: natürlich mit einer deutschen Firma schon mal eine Hürde
00:15:47: weniger in Richtung meine Modelle könnt ihr verwenden. Wie sieht es
00:15:51: da aus in Bezug auf sensible Daten,
00:15:55: sensible Firmendaten? Wie geht ihr damit Genau, also alles
00:15:58: ist quasi in einem geschlossenen Raum. Also wenn du Kunde bei uns bist, alle
00:16:02: Informationen, die du teilst, alle Dokumente, die du hochlädst, Informationen
00:16:06: über deine Firma kannst du sozusagen sehr
00:16:09: stark innerhalb deines Teams einschränken, aber generell alles, was
00:16:13: hochgeladen wird, ist in einem geschlossenen Raum und auch die
00:16:17: Server liegen alle in Deutschland. Wir haben die ganzen DSGVO
00:16:22: Dokumente und so weiter. Dafür sind wir gut gewappnet. Wir machen jetzt
00:16:26: sogar auch eine ISO-Zertifizierung. Also sind da auf der IT-Security-Ebene
00:16:31: aus meiner Sicht gut aufgestellt. Und auch das
00:16:35: Thema, wie werden meine Daten in die LLMs gegeben?
00:16:39: Die sind auch alle in EU gehostet und müssen eben für die
00:16:43: Textgenerierung einmal verarbeitet werden. Dort werden sie aber wieder gelöscht, also sie
00:16:47: werden auch nicht Teil des Trainings, fürs Training genutzt oder so.
00:16:51: Ja, das ist auf jeden Fall ein wichtiger Punkt, was ich jetzt da irgendwann mal
00:16:54: gehört habe, gerade wenn es sensible Daten geht, dass halt so ein Zwischenschritt
00:16:57: eingefügt werden kann, der dann quasi Namen, E-Mail-Adressen,
00:17:01: sonst irgendwas quasi ersetzt durch irgendwelche Dummies, wenn es jetzt sowas geht.
00:17:05: Aber gerade in der Maschinenbaubranche, wenn du vielleicht
00:17:09: sensible Maschinendokumente hast, die du halt im Teil des
00:17:13: Kontextes mitverwenden willst, dann ist es natürlich schwierig, wenn die nachher zum
00:17:17: Training der Daten verwendet werden und auf einmal generiert jeder halt
00:17:20: deinen Content. Also da hebt ihr euch natürlich schon mal ganz massiv von ab.
00:17:25: Wie sieht denn so ein klassischer Anwendungsfall bei euch aus? Also der Kunde kommt jetzt
00:17:29: zu euch und was, Ich meine, ihr habt ja im Hintergrund wahrscheinlich Zugriff auf das,
00:17:32: was so abläuft. Was sind so die
00:17:36: Haupt-Use-Cases für eure Software?
00:17:40: Also wir sehen von den Nutzergruppen,
00:17:45: Wir kommen aus einer Zeit, wo wir 3000 Nutzer am Tag sich bei uns
00:17:49: registriert haben. Jetzt sind wir so bei 1000. International,
00:17:53: unser Hauptkundenstamm kommt aus der DACH-Region.
00:17:56: Deswegen kannst du dir vorstellen, die Anwendungsfälle sind sehr breit.
00:18:00: Also wir kriegen von dem Studenten, der sein Paper schreiben möchte, bis
00:18:04: hin zu einer großen Marke, die wirklich
00:18:07: vitales Marketing komplett mit NeuroFlash
00:18:11: bearbeiten will. Also, da ist dann der Use Case konsistente Markenbotschaften,
00:18:15: konsistente Content für Social
00:18:18: Media, für Webseite, für E-Mail, also verschiedene Teams
00:18:22: involviert, bis hin zu auch viel visuelle
00:18:26: KI, also wir bieten auch KI-Bildgenerierung an,
00:18:30: Wobei ich da sagen würde, da haben wir das Produkt in den letzten Monaten
00:18:34: nicht stark weiterentwickelt. Da kommt jetzt viel bei uns in den nächsten Monaten.
00:18:38: Aber es melden sich extrem viele Leute an bei uns auch für KI Bildgenerierung.
00:18:44: Und so die Key Use Cases, wenn ich jetzt mehr in Richtung
00:18:47: Unternehmen schaue, ist Social Media, SEO
00:18:51: und eben Brand Content. Das heißt, viele
00:18:55: Leute, die ChatGBT schon ausprobiert haben, zum Beispiel, die sagen,
00:18:59: es hat mich extrem viel Zeit gekostet, den Output aus Chatshubity
00:19:02: nochmal in meine Sprache zu bringen und nochmal zu editieren. Ich
00:19:06: brauche irgendwie eine Software, die meinen Schreibstil, meine Marke besser
00:19:10: versteht, damit der Initiale, der erste Draft, den ich dann sowieso
00:19:13: als Mensch nochmal überarbeiten möchte, aber dass der schon mal besser ist. So das
00:19:17: ist das Thema Brand Voice und wie du es am Anfang sehr schön gesagt hast,
00:19:20: dass jeder im Team guten Content schreibt, gerade wenn
00:19:24: irgendwie, ich merke es jetzt bei uns, dass unsere Brand Voice
00:19:28: sind dann oft Dokumente, die irgendwo in PDFs rumliegen, aber wirklich die
00:19:32: Leute, die dann mit Content produzieren, vergessen dann, dass
00:19:36: die Dokumente existieren und jeder sieht das dann
00:19:40: auch wieder subjektiv oder versteht das vielleicht anders. Und da wollen wir halt
00:19:43: wirklich diese Konsistenz in jedem Kanal, aber auch in jedes
00:19:47: Teammitglied sozusagen bringen. Dadurch, dass wir sehr strukturiert
00:19:50: da unseren Kunden eine Brand Voice einmal definieren und das
00:19:54: dann allem zur Verfügung stellen. Und das zweite SEO ist eben, also viele
00:19:58: lange Texte, Sprachmodelle sind ja
00:20:02: nicht gut darin, echte Keyword-Daten und Suchvolumina und sowas
00:20:05: rauszufinden, aber wenn man diese Daten hat, dann kommt man halt mit
00:20:09: KI auch relativ schnell an einen ersten Entwurf
00:20:13: und man kann gewisse Research-Schritte, sei es jetzt eine
00:20:16: WDS-IDS-Analyse oder sich die Konkurrenten zu dem
00:20:20: Keyword anschauen und die automatisch analysieren. Das kann KI alles im
00:20:24: Hintergrund für dich machen. Das heißt, da gibt es dann nochmal weitere Effizienzschritte,
00:20:29: die wir leisten. Ja, und Social Media, denke ich mal, ist so ein Use Case,
00:20:33: weil du einfach sehr viel über verschiedene Kanäle
00:20:37: hinweg posten musst, ist da auch KI meiner Meinung nach einfach gut
00:20:41: geeignet, wenn du es, wie du schon richtig gesagt hast, eben das vor allem
00:20:45: in deinem Schreibstil passiert. Und eher auch so die
00:20:48: Corporate Accounts, man weniger so die Personal Brands.
00:20:52: Ich muss zwischendurch mal hier mein Audio ausmachen, weil hinter mir schwer gewerkelt
00:20:59: wird. Du hast gerade eben das Thema noch mit Bildern angesprochen. Also zwei Punkte, die
00:21:02: mir jetzt gerade aufgefallen sind. Welches Modell nutzt dir, beziehungsweise was
00:21:06: kommt jetzt neu dazu für die Bildgenerierung? Da nutzen wir
00:21:10: tatsächlich noch mehr Modelle. Wir nutzen Stable Diffusion,
00:21:14: Dolly und aus Black Forest
00:21:18: die Fluxmodelle. Die geht ziemlich steile.
00:21:23: Ja, also wir machen auch sehr positive Erfahrungen
00:21:26: damit. Da ist immer so ein bisschen die Frage, wie kriege ich es hin,
00:21:30: auch Text auf die Bilder zu generieren. Und da gibt es dann manchmal Unterschiede zwischen
00:21:33: Modellen, wo es besser und schlechter funktioniert. Was jetzt hier kommt, ist
00:21:37: wirklich, dass wir so eine Art Visual Editor bauen. Also, dass wir so eine Art
00:21:40: Kannbar, wo du wirklich online deine Bilder bearbeiten kannst, mit
00:21:44: KI-Bild generieren kannst, dann Texte drauf machen kannst und
00:21:49: da in die Richtung wird es dann weiterentwickelt, dass du sozusagen mehr
00:21:53: mit dem Bild machen kannst und da auch vollumfänglich direkt vielleicht ein
00:21:57: Social Media Post auch direkt dann schon fertig hast vom Visual her.
00:22:00: Ja, Das ist natürlich ein Punkt, wo ich sagen muss, da wird es wieder spannend,
00:22:04: weil aktuell ist ja wirklich der Part, du kannst relativ einfach, relativ schnell
00:22:08: Texte schreiben und dann fehlt es am Bild, das
00:22:12: Ganze zu automatisieren. Also da bin ich gespannt, wo da die Reise generell noch hingeht,
00:22:16: so die nächsten Wochen, Monate und vielleicht Jahre, dass man auch
00:22:19: da vielleicht sagen kann, okay, ich hab ein paar Bilder, die ich in irgendeiner Art
00:22:23: und Weise von dem Unternehmen als Dummy hochlade
00:22:27: und sagen kann, okay, generieren wir jetzt aus dieser Sammlung an
00:22:30: Bildern, die ja quasi meine Brand-Image-Voice ist, keine Ahnung, wie man es
00:22:34: nennen soll. Corporate Identity. Corporate Identity, generieren wir doch daraus
00:22:38: bitte neue bilder die halt auch zu mir passen bis
00:22:42: hin zu wir können eigentlich den social media prozess voll
00:22:45: automatisieren das weiß ich nicht habt ihr die habt ihr Anbindung zu
00:22:49: den Social Media Kanälen? Es steht auch auf der Roadmap, also planen wir
00:22:53: auch, weil wir genau das ist unsere Vision von diesem
00:22:57: vollumfänglichen Prozess, also einmal auf der inhaltlichen Ebene, dass du als
00:23:01: Marke deine Strategie gut briefst, definierst,
00:23:05: damit deine Strategie sehr stark und schnell mit KI operationalisiert
00:23:09: werden kann. Das heißt, du als Marke hast Marke Strategie Y,
00:23:13: dann werden dir die passenden Ideen, die deine Zielgruppen
00:23:17: gut ansprechen, vorgeschlagen, die auch vielleicht vogue
00:23:20: sind und Trend in deiner Zielgruppe. Und dann wird halt der
00:23:24: Content vorproduziert mit KI. Du schaust drüber, kannst
00:23:27: gleichzeitig mit deinem Team da sehr viel auch kollaborieren und mit, Das
00:23:31: ist jetzt die neue Funktion, die wir auch jetzt bald releasen, ist so diese unsere
00:23:34: KI-Audience. Weil ich merke es oft, wenn ich selbst
00:23:38: Content schreibe, ich würde am liebsten einen Kunden neben mir sitzen haben, der
00:23:42: genau unsere Zielgruppe ist und ihn fragen, wie findest du das denn? Spricht der der
00:23:46: Slogan an? Was gefällt dir daran nicht so? Das ist
00:23:49: heute mit Sprachmodellen auch schon möglich. Die können sich sehr, sehr schnell
00:23:53: in Zielgruppen oder können sich in Zielgruppen hineindenken und es gibt erste
00:23:57: Paver, die sagen, dass Antworten aus einem
00:24:01: Consumer Panel, also wenn du so wirklich teure Marktforschung machst,
00:24:05: können mit einer Genauigkeit von 85
00:24:08: Prozent auch über die LLMs generiert werden. Und dann auch von jedem
00:24:12: möglichen Audience. Du kannst auch Ferrari-Fahrer als Zielgruppe
00:24:16: definieren. Und es ist sehr schwer, Ferrari-Fahrer in eine Marktworschung zu
00:24:19: bekommen. Die müsstest du sehr viel Geld zahlen, damit die überhaupt eine Minute mit dir
00:24:23: verbringen. Und da glauben wir eben genau an diesen,
00:24:27: dass der Kreationsprozess sehr stark Strategie
00:24:30: getrieben und standardisiert werden kann, aber gleichzeitig auch
00:24:35: der Kreationsprozess sehr viel mehr diese Optimierungsschleife, die
00:24:39: du eigentlich ohne KI erst nachdem du den Content publiziert hast,
00:24:42: bekommst, schon bevor du ihn publiziert hast, bekommst. Und
00:24:46: deswegen dieses, und dann fehlt halt noch auf der Prozessebene, dass eigentlich
00:24:50: der Post direkt auf LinkedIn oder wo auch immer gepostet wird, damit du dir da
00:24:53: auch wieder so ein, zwei Minütchen sparst, aber am Ende läppert sich das halt
00:24:57: dann. Ja, vor allem dieser Kontrollpunkt, witzigerweise
00:25:01: ich bin gerade aktuell noch an der Automatisierung für einen Kunden dran, wo es auch
00:25:05: einen Bereich geht, über ein Formular
00:25:09: Inputs aus dem Team reinkommen und daraus dann nachher verschiedene
00:25:12: Punkte erstellt werden sollen. Und da habe ich jetzt in NNN noch einen
00:25:16: Correction Agent hinzugefügt, der quasi den Output jetzt
00:25:19: brieft und mir einen Content Score
00:25:23: zwischen 1 und 100 generiert. Und alles, was unter 85
00:25:27: ist, geht in eine Korrekturschleife und wird automatisch wieder eingespielt,
00:25:31: bis halt irgendwann der Output auf über 85 Prozent ist und dann erst
00:25:35: geht quasi der Output weiter in die nächste Schleife. Auf was
00:25:39: bewertet der Correction Agent das dann? Der hat eine klare Struktur, wie
00:25:42: sowas aussehen soll, was an Inhalten drin ist oder drin sein soll und
00:25:46: überprüft jetzt quasi das was im ersten step von der KI generiert wurde
00:25:50: auf diese Inhalte und wenn irgendwas fehlt oder falsch formuliert
00:25:54: ist oder irgendwie nicht der genauen Formatierung entspricht gibt es halt wieder zurück gibt
00:25:57: klare Handlungsanweisungen an die KI, das halt
00:26:01: dann im zweiten step zu korrigieren Und der korrigierte Step geht dann
00:26:05: halt wieder durch die Schleife durch, wird überprüft und bis der halt irgendwann
00:26:09: sagt, okay ich habe 85 Prozent. Da muss ich jetzt halt mal noch ein bisschen
00:26:12: nivellieren, wo die Reise hingeht und da noch ein bisschen feinschleifen. Aber der
00:26:16: Hintergedanke ist quasi, dass ich mit dem ersten Input, der aus dem Formular
00:26:19: reinkommt, was generiere, was schon mal so gut vom
00:26:23: Aufbau ist, dass ich im Anschluss aus diesem Output quasi alle
00:26:27: weiteren Schritte abgreifen kann und habe halt diese händische
00:26:30: Analyse gar nicht mehr mit drin. Und in diesen Analyse Agent könnte ich jetzt
00:26:34: beispielsweise auch Zielgruppen reinbringen, könnte den Schreibstil noch mit integrieren,
00:26:38: der halt dann mit abgegriffen wird. Ja, das ist ein sehr
00:26:41: ähnlicher Gedanke. Was wir bei uns noch mehr machen, ist,
00:26:45: dass wir initial mehrere Varianten schon generieren und im
00:26:49: Hintergrund die Varianten auch scoren und dann dem Kunden nur die Top
00:26:52: drei anzeigen. Und so kriegt er direkt halt mehr den relevanteren
00:26:56: Inhalt angezeigt. Aber sehr smartes
00:27:00: Gang und ich glaube da hilft dir halt KI auch wieder, als dein
00:27:04: Sparingspartner sein. Das machen sehr wenig
00:27:07: Leute bisher. Ja, das ist auch mein Eindruck, den ich so habe.
00:27:11: Es wird meistens ein Input reingegeben, dann kommt ein Output raus und es
00:27:15: findet eigentlich in der Regel nie ein Korrekturschleife statt in dem
00:27:18: LLM. Also es wird vielleicht der Text dann rausgezogen, dann händisch noch mal überarbeitet,
00:27:23: anstelle aber zu sagen, okay hier der untere Absatz passt mir noch nicht so gut,
00:27:26: der geht mir zu sehr in die Richtung, bitte noch mal anpassen und halt wirklich
00:27:30: das LLM in dem Sinne zu nutzen, den Text wieder
00:27:34: umzuschreiben. Du hast aber noch ein Use Case mitgebracht. Wir
00:27:37: haben ja hier die Möglichkeit, den Bildschirm zu teilen. Da bin ich jetzt super gespannt,
00:27:41: was da kommt. Genau, ich kann einfach mal...
00:27:45: Also einfach für diejenigen, die jetzt mal so ein bisschen wissen wollen, wie sieht Neuroflash
00:27:49: im Hintergrund aus? Neuroflash oder Neuroflash?
00:27:52: Neuroflash. Neuroflash. Wie sieht das so im Hintergrund aus? Wie ist es zu bedienen?
00:27:56: Und was ist vor allem da möglich? Hat der Hendrik
00:28:00: mal gerade was vorbereitet? Da bin ich... Ach, der Ankerkraut-Test. Jetzt bin ich
00:28:03: gespannt. Ah. Also, ihr seht jetzt hier wirklich,
00:28:07: was erst wahrscheinlich in zwei, drei Wochen
00:28:11: released wird. Aber wie du es vorhin schon beschrieben hast, wollte ich vor allem
00:28:15: mal auf das Thema Brand Voice zu sprechen kommen. Also es ist
00:28:18: so, wie du gesagt hast, wir haben den sogenannten Brand Hub, wo du
00:28:22: Informationen hochladen kannst, in Form von PDF-Dateien, URLs
00:28:26: hinterlegen kannst, wo du quasi uns was über dein Unternehmen,
00:28:30: zu deiner Zielgruppe, zu deinen Produkten erzählst, was
00:28:33: dann immer wieder im Kontext der Textgenerierung verwendet
00:28:36: wird. Und wir haben eben auch Brand Voices, die haben wir
00:28:40: heute schon. Eine Brand Voice heute ist sehr
00:28:43: viel, ist, sag ich mal, eine Umschreibung deiner Markensprache
00:28:47: und Schreibstil und sie wird jetzt, wir nennen es
00:28:51: wirklich Brand Voice Upgrade, weil du siehst, du hast jetzt hier
00:28:54: ganze Markenprofile, die du dann erstellen kannst. Das heißt, du kriegst auch
00:28:58: so eine Art Analyse über deine Tonalität, kannst auch Keywords
00:29:02: eingeben, die sozusagen oft in deinem Content bewende
00:29:05: werden möchtest, weil du für gewisse Wörter stehen möchtest. Du kannst auch deine
00:29:09: Markenwerte mit reinbringen, damit der Content auch implizit dann deine
00:29:13: Markenwerte unterstützt. Du hast sehr genaue Möglichkeiten, den
00:29:16: Schreibstil, welche Abkürzungen sollen verwendet werden, wie
00:29:20: viele, schreibst du in Passiv, Aktiv, Sie- oder
00:29:24: Du-Form, Emojis verwenden ja, nein, du hast auch die ganze
00:29:27: Formatierungsregeln, also was darf
00:29:31: in der Überschrift verwendet werden, wie soll eine Telefonnummer formatiert werden, welche
00:29:34: Währung soll in den Texten stehen und du hast auch ein
00:29:38: Klosar oder sozusagen gewisse Abkürzungen, die die KI vielleicht so
00:29:42: noch gar nicht richtig versteht, kannst du hier auch noch mal mehr briefen und
00:29:46: dann als größere Firma gibt es ja oft nochmal so interne
00:29:49: Regeln, wie zum Beispiel bei uns bei Euroflash, wenn wir das über die
00:29:53: LLMs produzieren lassen, dann schreiben wir es immer mit großem N, aber unsere Marke
00:29:57: sagt N klein, bitte klein. Und das geht immer falsch und das würde ich
00:30:00: hier in so einer fortgeschrittenen Regel hinterlegen können, sodass dann
00:30:04: jeder Text, der dann produziert wird, ein Euroflash in kleinem
00:30:08: N schreibt. Das heißt, du siehst hier wirklich, es geht sehr, sehr tief
00:30:12: und am Ende kannst du das dann, das zeige ich jetzt hier kurz auf
00:30:15: der Live-Umgebung, hast du im Endeffekt
00:30:19: Dokumente, die du anlegst, oder sogenannte Workflows, mit denen du
00:30:23: starten kannst, oder Chatflash, das ist sozusagen unser
00:30:27: vergleichbares Interface wie ChatGBT. Du siehst hier unten schon, du
00:30:31: kannst dann deine Marken, Brand Voices auswählen. Das heißt, das
00:30:35: ist halt genau das Hilfreichste. Du kannst natürlich in Chats, die verschiedene
00:30:38: GPTs antrainieren. Aber wenn du wirklich viel switchst oder auch für
00:30:42: verschiedene Kanäle, Brand Voices angestellt, ist es immer sehr viel aufwendiger.
00:30:46: Und so granular, wie du jetzt bei uns eben bald eine Markensprache
00:30:50: definieren kannst, schaffen das die wenigsten in ChattyBT
00:30:54: selbst sozusagen hinzubekommen. Und wir
00:30:57: haben ja also viele, ein Prompt Engineer und
00:31:01: drei Data Sciences, die wirklich super viel da auf Fine-Tuning und sowas
00:31:05: gemacht haben im Hintergrund. Und da siehst du jetzt eben hier, du kannst deine Brand
00:31:08: Voice auswählen, deine Informationen hochladen oder anwählen, die
00:31:11: verschiedene Modelle auswählen und auch Promptvorlagen im Team teilen
00:31:15: oder aus der Community nutzen. Und so kann es einfach
00:31:19: starten. Und das Interface ist eben auch dafür spezialisiert, eher
00:31:22: im Team und als Marketing zu arbeiten. Das heißt,
00:31:26: wir arbeiten direkt mit Dokumenten, weil einfach Dokumente aus
00:31:30: meiner Sicht, wenn man gerade lange Texte schreibt, kannst du es editieren, du kannst
00:31:33: auch die KI nutzen, nach und nach mal umzuschreiben und so weiter. Und du hast
00:31:37: am Ende eben die Möglichkeit, das alles runterzuladen oder direkt als
00:31:41: HTML sogar zu exportieren. Und hast dann eben hier
00:31:44: verschiedene Features noch, je nachdem,
00:31:48: wie gut du schon prompting kannst. Wenn du zum Beispiel
00:31:52: einfach sehr schnell neue Vorschläge bekommen möchtest, kannst du eben
00:31:56: hier aus unseren 100 verschiedenen Textarten,
00:31:59: Texttemplates dann einfach auswählen. Also kannst du dann, wenn
00:32:03: du jetzt den Social Media Use Case hat. Ich switch mal kurz schnell
00:32:07: auf Deutsch. Du siehst, wir haben so 14 verschiedene Sprachen, in denen
00:32:11: wir Content von scratch produzieren können. Und dann kann man eben hier
00:32:14: in Instagram Caption. Wollen
00:32:18: wir ein Beispiel machen mit einem Use Case von deinem Kunden?
00:32:23: Ja bitte. Was nehmen wir denn für ein Use Case?
00:32:27: Ein Kunde von mir, der baut Rollfenster
00:32:31: und das sind eigentlich Windschutzrollos
00:32:35: für Terrassenüberdachung.
00:32:39: Ganz spezifisch. Hast
00:32:42: du gerade noch ein anderes Fenster offen, weil ich sehe jetzt hier nur den Bälle
00:32:45: eine Textart im Bildschirm. Ja genau. Die Frage ist, sollen
00:32:49: wir für den schnell eine Brand Voice anlegen? Das geht ganz schnell.
00:32:53: Meinen Segen hast du. Ich hoffe, ich kann dir alle Antworten geben, die du brauchst.
00:32:56: Ich brauche nur eine URL eigentlich. Ja, genau, weil die Brand Voice, wie du
00:33:00: die bei uns anlegen kannst, ist eben auch ganz simpel. Du
00:33:04: müsstest einfach eine Seite finden, die so ein bisschen
00:33:08: über die Firma spricht. Okay, das sind jetzt die letzten
00:33:12: Texte hier. Versuchen wir das mal so.
00:33:16: Ist jetzt nicht so viel Text, aber ich bin jetzt in der
00:33:19: Brand Voice Erstellung drin. Ich könnte jetzt hier einfach ein URL angeben.
00:33:24: Das heißt, da empfehle ich immer so die Überuns-Seite, die Philosophie-Seite
00:33:27: etc. Zu benutzen. Ich
00:33:31: würde jetzt einfach mal die Seite nehmen, auch wenn da jetzt nicht so viel drauf
00:33:35: steht. Dann würde ich jetzt einfach die Über-uns-Seite mal das
00:33:39: Unternehmen nehmen. Und jetzt analysiert er, geht da quasi auf die Seite
00:33:42: drauf und versucht zu verstehen, wie ist die Tonalität, Schreibstil, wer
00:33:46: ist die Zielgruppe dieser Marke. Das
00:33:50: dauert dann meistens so fünf bis zehn Sekunden. Und dann kriege ich
00:33:53: einen Vorschlag, das ist eben jetzt noch unsere alte Brand Voice. Du siehst, die ist
00:33:57: weniger granular und eher in Textform. Dadurch
00:34:00: weniger übersichtlich. Aber am Ende stehen
00:34:04: dann so Sachen drin, wie Definition, wer ist Gertz,
00:34:08: was sind die linguistischen Guidelines, was sind Do's und Don'ts,
00:34:12: was sind vielleicht gewisse Begriffe, die speziell
00:34:16: nochmal definiert werden sollen. Das würdest
00:34:20: du jetzt als Profi, der die Marke besser kennt, nochmal durchgehen, nochmal ein bisschen editieren.
00:34:23: Ich gehe auf weiter. Ich falte mir die jetzt einfach als Gertz ab.
00:34:30: Und habe die jetzt hier in meinem Brand Hub drin und kann jetzt eben hier
00:34:33: sagen, ich nehme jetzt die Brand Voice Care
00:34:37: aus und jetzt kann ich eben nochmal prompen oder ich nehme einen Promptvorlag
00:34:41: und schreibe mir zwei neue Vorschläge,
00:34:47: einen Slogan. Wenn du das jetzt
00:34:51: ohne die Brand Voice schreiben würdest, dann wüsste er gar nicht, wer ist die
00:34:55: Firma, worüber. Und dadurch, dass ich jetzt, der Prompt
00:34:58: ist immer noch schlecht, weil es sehr wenig ist, aber am Ende siehst du, hat
00:35:02: er jetzt im Hintergrund verstanden, wofür ich einen Slogan
00:35:06: schreiben soll sozusagen. Das ist im Endeffekt die Brand Voice, die ist
00:35:09: überall in einem Dokument angewählt. Das heißt,
00:35:13: egal ob ich jetzt hier über die Templates mir Texte produziere,
00:35:16: zum Beispiel in der Produktbeschreibung für neues
00:35:20: Rollo oder so, dann greift er immer wieder auf die Brand Voice
00:35:24: zurück. Also ich mache das hier einfach mal
00:35:29: Windschutz dann klicke Gas und sage jetzt
00:35:33: hier, Brand Voice Kerze schon ausgewählt. Kann jetzt hier auch nochmal
00:35:36: Anzahl Vorschläge anwählen und hier bekomme ich jetzt eher verschiedene
00:35:40: Varianten für eine Produktbeschreibung und gleichzeitig so eine Art Score,
00:35:43: wie gut ist womöglich diese Produktbeschreibung in Form von
00:35:47: Lesbarkeit, also wie leicht lesbar sind die Texte und wie emotional sind die
00:35:51: Texte. Siehst du hier unten, danach wird das dann auch sortiert und dann kann ich
00:35:54: hier einfach draufklicken, den Text auf den Editor setzen und dann hier eben nochmal
00:35:58: weiterarbeiten und sagen analysieren wir den Text nochmal oder
00:36:03: schreibe mir den Text in Bullet Points. Und dann kannst du
00:36:06: quasi mit dem Anwählen, weißt du jetzt genau, den Text soll ich jetzt nochmal in
00:36:10: Bullet Points sagen und dann hier einfügen, dann fügst du das einfach unten drunter ein.
00:36:13: Also du hast quasi auf dem Editor auch nochmal diese Generierungsmöglichkeiten,
00:36:17: die sich da einfach nochmal effizienter machen, weil es eben kein
00:36:21: Chat-Konversationsfenster ist sozusagen.
00:36:25: Den Chat hast du immer noch hier rechts, kannst natürlich die Ergebnisse dann auch
00:36:28: einfügen. Bildgenerierung ist eben auch integriert.
00:36:32: Da finde ich die Funktion Eingabe optimieren immer ganz
00:36:36: cool. Weil ich finde, Prompts für Bildgenerierung zu schreiben, ist
00:36:40: nochmal sehr viel schwieriger als für den Textbereich. Und da haben wir eben so verschiedene
00:36:44: Templates. Zum Beispiel, wenn du jetzt ein realistisches
00:36:47: Foto haben möchtest, dann
00:36:51: nehmen wir jetzt mal Flux Pro. Jetzt bin ich gespannt.
00:36:55: Ich habe jetzt den Prompt nicht gelesen. Du siehst, er hat den auch in Englisch
00:36:59: gemacht, weil manchmal die Bildmodelle auf Englisch noch mal besser funktionieren. Ich hoffe, er
00:37:02: versteht jetzt den Begriff Windschutz rollos. Musst du mir jetzt
00:37:06: sagen, wie das wird. Nein, also das ist nicht ganz das Produkt, was die
00:37:10: haben, aber es ist zumindest schon mal an einer Terrassenüberdachung
00:37:14: dran. Aber ich bin schon, ich finde das
00:37:17: schon erstaunlich, wie gut Flux mittlerweile Bilder
00:37:21: generiert. Also mein Eindruck, du erkennst doch
00:37:25: jetzt hier nicht, dass es KI generiert ist. Also zumindest nicht auf die Distanz jetzt
00:37:28: am Bildschirm. Aber das, was du gerade gesagt
00:37:32: hast, das ist aus meiner Sicht, wenn das möglich ist mit der
00:37:35: Technologie, nämlich ich habe ein Produkt, ich
00:37:39: habe vielleicht ein Product Shot und das möchte ich für Social Media
00:37:43: in die verschiedenen Szenen setzen. Oder ein
00:37:47: Joggingschuh, bitte zieh den an einen Mann, der
00:37:50: gerade im Wald joggen geht. Und das geht leider heute.
00:37:54: Versuchen das Startups, wenn sie so wirklich 3D-Scans machen von den Produkten und dann
00:37:58: wirklich 3D-Modelle bauen, dann geht das. Aber das ist halt nicht skalierbar.
00:38:02: Und Ich hoffe, dass wir das jetzt in den nächsten Monaten gelöst
00:38:06: bekommen. Google hat da schon einen großen Fortschritt gemacht tatsächlich.
00:38:09: Damit experimentieren wir auch gerade viel, die quasi existierende Bilder
00:38:13: dann einfach verändern können. Kann man dann so einen Produktshot hochladen
00:38:17: und sagen, setzte mir den Schuh an einen Mann
00:38:20: joggend im Wald. Man sieht es schon fast so aus.
00:38:25: Und man sieht nicht, dass er sechs Zehen hat. Richtig.
00:38:29: Das Problem haben wir, zwei fliegen mit einer klatsche gelöst wunderbar schuhe
00:38:33: angezogen sind die sechs zehen weg ja also
00:38:36: ich finde schon krass was da als möglich ist also vor allem jetzt auch aus
00:38:41: ich betrachte das jetzt aus zweierlei sicht ich bin relativ weit
00:38:44: auch in dem Thema Prompting und kann mir damit meinen Modellen, ich weiß
00:38:48: also welches Modell ich für welche Aufgabe nutzen muss, aber
00:38:52: für eigentlich die meisten meiner Kunden ist halt hier so ein Tool
00:38:56: in der Art und Weise würde halt einfach den Prozess ein
00:39:00: Vielfaches erleichtern und vor allem jetzt ist die Person, die fürs
00:39:03: Marketing zuständig ist, vielleicht mal krank oder es kommt mal ein Praktikant dazu. Und dann
00:39:07: kann man den Praktikanten sagen Bitte schön, das sind die Themen.
00:39:11: Feuer frei. Ja, und was du hier siehst, das sind unsere
00:39:15: Workflows, die wirklich im Hintergrund auch nochmal sehr viel mehr machen für dich. Also
00:39:18: jetzt unser SEO Workflow zum Beispiel, da gibst du die Keywords ein, die
00:39:22: relevant sind für dich. Und im Hintergrund wird direkt eine WDS-IS-Analyse
00:39:26: getriggert, zu gucken, welche anderen Keywords sind noch relevant, semantisch relevant,
00:39:30: werden dann direkt in den Artikel mit eingebaut. Und das ist auch
00:39:34: eine sehr leichte Art und Weise, gar nicht so sehr viel über
00:39:38: das Thema Prompting zu wissen, aber gleichzeitig im Hintergrund auch
00:39:41: viele Prozessschritte zu automatisieren. Ja, Definitiv.
00:39:46: Bist du jetzt gerade was am Generieren im Hintergrund? Nee,
00:39:50: ich würde jetzt hier glaube ich stoppen, weil sonst geht es zu tief in die
00:39:53: Demo rein. Aber ich wollte nur noch mal kurz die Oberfläche mit den Workflows zeigen
00:39:57: am Ende. Ich kann mal gerade gucken, ob ich da noch einen Beispieltext
00:40:00: habe. Kommen dann wirklich ganze
00:40:04: Artikel raus, die, naja, in dem
00:40:08: Fall, das ist faszinierend. Also es kommen wirklich 3000
00:40:12: Wort lange Artikel raus, mit Bild, mit Unterüberschriften, auch
00:40:15: mit, was haben Fragen, was haben die Leute in Google gefragt diese
00:40:19: People also fragen werden direkt beantwortet.
00:40:24: Und da fassen wir einfach viele Prozessschritte dann zusammen mit diesen Workflows.
00:40:29: Jetzt hast du mich fast so weit dass ich mir gleich einen Zugang einrichte. Ja,
00:40:32: das können wir gerne im Nachgang lösen. Mega gut. Ich finde vor
00:40:36: allem, was ich auf jeden Fall jetzt mal hier raushöre, ihr seid
00:40:39: ja schon seit ziemlich zu Beginn mit dran und
00:40:43: die Kunden profitieren natürlich dann von eurem Know-how. Also ihr seid
00:40:47: jetzt keiner der jetzt gerade gesagt hat, ah wunderbar KI ist jetzt in aller Munde,
00:40:50: ich entwickle jetzt mal so ein Produkt, sondern ihr seid ja eigentlich mit den
00:40:54: ganzen LLM Herstellern durch die Entwicklungsprozesse durchgegangen und habt
00:40:57: euer Produkt einfach weiter entwickelt. Also ohne dafür jetzt irgendwie explizit
00:41:01: werben zu wollen, merkt man schon, dass hier auch ein
00:41:05: weitgehender Gedanke dahinter ist, in diesem Produkt,
00:41:09: einfach nicht nur für euch ein Produkt zu bauen, wo ihr natürlich euren
00:41:12: Lebensunterhalt mit bestreiten wollt, davon mal abgesehen, sondern dass ihr halt wirklich einen Mehrwert
00:41:16: bieten wollt für eure Kunden, die dann halt sagen, okay, wir haben hier eine Investition
00:41:20: für ein Tool. Das ist ja immer so die Abwägung, die sich die Unternehmen machen.
00:41:24: Aber wir haben eine Investition, die uns aber auf der anderen Seite des Schreibtisches eine
00:41:27: gewisse Anzahl an Stunden spart für Tätigkeiten, die jetzt einfach
00:41:31: mittlerweile benötigt werden, halt einen klaren Unterschied zum Wettbewerb
00:41:35: dazu dazubieten. Und dann ist meine Sache aber am Ende glauben wir
00:41:39: eben auch oder ist unsere Vision, dass durch dieses Feedback der
00:41:43: Audiences durch unsere Scores du auch besseren Content, der einfach einen
00:41:47: höheren Return of Investment bringt.
00:41:50: Also an beiden Ebenen, glaube ich, kämpfen wir sozusagen. Zeit, Effizienz,
00:41:54: aber auch Effektivitätssteigerung des Marketings.
00:41:58: Ja, perfekt. Ja, und der Stelle auf jeden Fall schon mal vielen Dank.
00:42:02: Dreiviertelstunde haben wir jetzt geknackt. Der Pitch
00:42:06: gehört dir. Ja, ich freue mich, wenn
00:42:09: ihr uns austestet, uns Feedback gebt, vor allem, wie du es, glaube ich, gerade
00:42:13: gesagt hast, Felix. Mehrwert ist natürlich, das ist genau unser
00:42:17: Ziel, weil auch selbst wenn wir am Ende unser Unterhalt davon
00:42:21: bezahlen müssen, das geht nur, wenn wir ein cooles Produkt und ein
00:42:24: wertvolles Produkt für euch entwickeln. Und gerade für
00:42:29: Maschinenbaubranche wäre ich super interessiert, ob ihr da noch
00:42:32: mal individuelle Use Cases habt, die wir da vielleicht mit euch gemeinsam
00:42:36: entwickeln können und freue mich über Kontaktaufnahmen über diverse
00:42:40: Kanäle. Ansonsten danke fürs Zuhören. Vielen Dank
00:42:44: auf jeden Fall für deine Zeit. Super spannendes Produkt und ich hatte ja
00:42:47: eingangs schon mal erwähnt, ich bin glaube ich vor zwei Jahren oder so
00:42:51: oder müsste zwei Jahre her sein in der Zeit in der Agentur bin ich mal
00:42:54: irgendwann darüber gestolpert. Man findet ja auch diverse Video
00:42:58: Tutorials von euch auf YouTube, wo das Produkt erklärt wird. In der
00:43:01: Regel echt gelobt wird muss man sagen, also dass die Leute wirklich ihren Benefit da
00:43:05: drin haben. Und von daher finde ich super, super cool, dass du hier den Weg
00:43:08: in meinen Podcast gefunden hast über verworrene Wege. Ich hatte ja
00:43:12: eingangs gesagt, ich bin ja eher ein kleines Licht im Vergleich zu euch. Also ein
00:43:15: OMR-Schild hängt hinter mir noch keins. Also von
00:43:19: daher, nee, tipptopp. Hat Spaß gemacht, danke
00:43:22: dir. Ebenso. Ansonsten, ja, ich hoffe, du konntest was
00:43:26: mitnehmen. Alle Links, die Henrik mir zur Verfügung stellt, findest du unten in
00:43:30: der Videobeschreibung oder in der Podcastbeschreibung. Klick gerne rein
00:43:33: oder schreib Hendrik direkt an, wenn du sagst, ich habe einen Use Case, den würde
00:43:37: ich gerne gemeinsam mit NeuroFlash entwickeln oder dabei
00:43:41: an der Entwicklung teilnehmen. Schreib einfach und
00:43:44: dann schauen wir, was sich ergibt. In diesem Sinne vielen Dank fürs Zuhören und bis
00:43:48: zur nächsten Folge!