Maschinenbau trifft Marketing - Höhere Margen im Maschinenbau & Handwerk durch Marketing + Vertrieb

Maschinenbau trifft Marketing - Höhere Margen im Maschinenbau & Handwerk durch Marketing + Vertrieb

Transkript

Zurück zur Episode

00:00:00: Wenn du wissen willst, wie du es schaffst, deinen Content genauso klingen zu lassen, wie

00:00:03: dein Unternehmen klingt und das über alle Kanäle verteilt, dann ist hier die Folge genau

00:00:07: die richtige für dich. Ich habe heute einen Gast, einen Softwarehersteller,

00:00:11: von dem du mit Sicherheit schon mal irgendwo was gehört oder gesehen hast. Und zwar

00:00:15: ist es das Tool Neuroflash. Ist dafür da,

00:00:18: wirklich Beiträge, Textbeiträge zu generieren, aber nicht irgendwelche

00:00:22: Textbeiträge, wie du sie so mit KI generieren kannst, sondern du kannst

00:00:26: deine Markensprache festlegen, du kannst Informationen mit hochladen,

00:00:30: über die sich das Tool dann bedient und wirklich so schreibt, wie du nachher den

00:00:32: Output auch gebrauchen kannst. Aber damit ich dir jetzt nicht alles darüber erzählen muss, habe

00:00:36: ich einen Gast dabei. Den Hendrik hat mich angeschrieben und hat gefragt, ob er

00:00:40: eine Runde bei mir in den Podcast reinkommen kann. Und da ich ja mit

00:00:43: meiner Zielgruppe immer mal wieder so das Thema Content-Produktion habe und

00:00:47: viele sich fragen, wie kann ich mich davon abheben von diesem Standard KI generierten

00:00:51: Content, denke ich, ist hier die Folge genau die richtige für dich. Hendrik, schön, dass

00:00:55: du dir die Zeit genommen hast. Erzähl doch mal zwei, drei Sachen zu dir.

00:00:59: Felix, dass ich hier sein darf. Genau, wie du schon gesagt hast, also ich

00:01:03: bin Mitgründer und Co-CEO bei Neuroflash, habe

00:01:06: mein Leben lang schon Startups gemacht. Im Vorfeld hatte

00:01:10: ich ein E-Commerce-Unternehmen aufgebaut und eine Agentur und habe da

00:01:14: selbst so diesen Pain-Point gespürt, gute Texte zu

00:01:17: schreiben. Und als dann GPT-3

00:01:21: auf den Markt kam damals, war ich eben mit

00:01:24: Jonathan und Henrik und meinen anderen Co-Foundern schon dabei, mit

00:01:28: den Vorgängertechnologien, GPT-2, BERT und so

00:01:32: weiter, in unserer damaligen ersten Software

00:01:36: schon mit zu experimentieren. Und als das GPT-3 rauskam, waren wir eben einer der

00:01:39: Ersten in Deutschland, die das so verstanden haben, wie

00:01:43: das eigentlich funktioniert und haben das dann damals integriert bei uns.

00:01:47: Damals hatten wir noch einen ganz anderen Use Case bei Neuroflash, haben da auch viel

00:01:51: ausprobiert. Aber dadurch, dass GBT3 dann so

00:01:54: wirklich sehr menschenähnlich klang, ging es dann da so richtig

00:01:58: eigentlich erst los. Also in der Startup-Sprache würde man Product-Market-Fit

00:02:02: sagen. Also da haben wir wirklich gemerkt, dass Leute auch unser Produkt weiter empfohlen

00:02:05: haben. Genau. Und so ist jetzt die Reise die letzten vier Jahre. Also wir

00:02:09: sind so ein Jahr, anderthalb, vor ChatsGBT gestartet.

00:02:13: Würde ich sagen, sehr viel Glück beim Timing dabei gewesen.

00:02:17: Und genau, was mich antreibt dahinter, ist wirklich so die Technologie,

00:02:21: die Innovation. Ich glaube, jetzt eine Firma aufbauen, jetzt auch

00:02:25: gerade im Marketing mit dieser Technologie zu beschäftigen, macht

00:02:28: enorm viel Spaß. Einfach Prozesse,

00:02:32: Arbeitsabläufe, so wie ich sie vorher kannte, einfach ganz anders jetzt und

00:02:36: sehr viel effektiver und effizienter gemacht werden können.

00:02:40: Und ja, hoffe, dass wir darüber heute auch ein bisschen weitergeben können, was wir

00:02:43: da selbst so machen und dann vielleicht auch

00:02:47: für deine Kunden oder für die Community hilfreich ist.

00:02:51: Was war denn eigentlich so die Auslöser? Ich kann mir jetzt schlecht vorstellen, man steht

00:02:55: morgens früh auf und denkt sich, und jetzt gründe ich so eine Software oder

00:02:59: erstelle ich so eine Software, da gehört ja ein bisschen mehr dazu. Vielleicht noch ein

00:03:02: bisschen Background, wo kommst du denn ursprünglich her? Also ich würde mich jetzt

00:03:05: etwas überfordert fühlen, eine Software zu programmieren. Ja,

00:03:10: ich bin auch gar nicht der Techie. Also ich habe ganz, ganz früh

00:03:13: angefangen, Webseiten zu entwickeln. Also damals schon in der

00:03:17: Schulzeit, habe so ein Fernstudium in der achten Klasse gemacht

00:03:21: zum Multimedia-Designer und dadurch die ganzen Tools, Photoshop,

00:03:24: Dreamweaver, da haben wir uns noch mit HTML irgendwie gelernt.

00:03:28: Das heißt so ein bisschen, ich sag mal, es war simples Online-Marketing und halt

00:03:32: Webseiten entwickeln, es war jetzt nicht wirklich Software programmieren.

00:03:37: Und ich wurde so ein bisschen durch meine Mutter, glaube ich, inspiriert. Die ist nämlich

00:03:40: seit 35 Jahren, hat sie ihre eigene Softwarefirma

00:03:45: und wollte deswegen schon immer mehr in Richtung Technologie und was wir als

00:03:49: Innovatives machen. So ein E-Commerce war sehr, wir hatten ein Produkt,

00:03:53: was aus der Manufaktur kam, handgefertigt. Dadurch habe ich sehr

00:03:56: viel im Marketing gelernt, in Richtung Performance-Marketing, organische

00:04:00: Reichweiten aufbauen als Nischenbrand. Also habe so wirklich

00:04:04: Marketing Basics gelernt

00:04:08: und deswegen, als ich dann Jonathan kennengelernt habe auf einer Konferenz, da waren wir beide

00:04:11: Speaker, haben wir uns vernetzt. Ein halbes Jahr später habe ich

00:04:15: dann geschrieben, hey, ich bin aus meinem Unternehmen ausgestiegen, also

00:04:19: nur auf LinkedIn gepostet. Und dann hat er mich angeschrieben, hey, wir suchen jemanden, der

00:04:22: hier uns hilft. Wir haben ein Produkt, was nicht funktioniert.

00:04:26: Wir haben eine einmalige Technologie, die wir entwickelt haben, mit

00:04:30: ersten Kunden validiert. Aber wir brauchen noch mehr Unterstützung.

00:04:34: Und so bin ich dann eigentlich da auch wieder durch Glück sozusagen

00:04:38: reingekommen, dass ich Jonathan damals kennengelernt habe. Und wir

00:04:41: haben dann zusammen auf Projektbasis erstmal zusammengearbeitet

00:04:45: für zwei Monate. Und dann aber, Dann habe ich relativ schnell

00:04:48: erkannt, auch wenn da eigentlich noch alles

00:04:52: sehr chaotisch ist und wir noch nicht genau wissen, was jetzt mit der Technologie

00:04:56: geht, das war im Fortschiebetrieb, erkläre ich gleich kurz, was

00:05:00: die Technologie kann, was wir damit genau machen wollen. Ich fand es einfach

00:05:03: total faszinierend, da mal ins kalte Wasser zu gehen und da einfach von null

00:05:07: was zu lernen. Immer mit dem Glück, dass ich selbst nicht jedes Wort

00:05:11: verentwickeln musste damals, sondern wir auch schon Entwickler hatten.

00:05:14: Die Technologie, die wir bei Jonathan damals schon validiert hatten, war

00:05:18: in der Tat so eine Art Vorgängertechnologie zu den GPT-Modellen,

00:05:23: die im Endeffekt Gefühle und Assoziationen

00:05:27: auch unterbewusst von Menschen her vorsagen kann. Und

00:05:31: wie wir ja wissen, im Marketing entstehen viele Entscheidungen, ob es jetzt ein Klick oder

00:05:35: ein Kauf ist, ja im Unterbewusstsein. Und das war damals schon so ein

00:05:39: bisschen genau unser, unser, unser Sweet Spot zu sagen.

00:05:43: Wenn jetzt KI kommt, wenn jetzt GPT 3 kommt, GPT 4

00:05:46: etc., die immer bessere Texte produzieren können, dann werden wir als

00:05:50: Marketer oder als Brands sehr fähig sein, viel Content zu

00:05:54: produzieren. Aber was ist am Ende der beste Content? Der Content,

00:05:57: der meine Marke am besten wieder aufbaut, der meine

00:06:01: Zielgruppe am besten anspricht, der die Bedürfnisse und eben die

00:06:04: Menschen wirklich, sag ich mal, emotional auch

00:06:08: anspricht und als relevant anzählt. Und deswegen haben wir gesagt, die

00:06:12: Technologie ist eigentlich super spannend, eben auch unseren Kunden

00:06:15: zu zeigen, wie gut ist jetzt ihr Content, weil Content-Erstellung

00:06:19: ist ein sehr subjektiver Prozess, gerade im Agenturumfeld.

00:06:24: Du hast ja, glaube ich, dein USP ist, dass du deine Kunden sehr, sehr gut

00:06:27: verstehst. Aber bei anderen Agenturen, die sich in vielleicht in viele

00:06:30: verschiedene Brands und Zielgruppen reindenken müssen. Sehr, sehr schwer, da wirklich sehr, sehr,

00:06:34: sehr guten Kunden zu produzieren. Und ja, also ich würde sagen, viel Glück

00:06:38: dabei und einfach Offenheit und den Antrieb generell mit

00:06:41: Technologie was zu machen. Und gerade heute, wo KI auch selbst schon die

00:06:45: ersten Prototypen für dich baut. Glaube ich kann jeder am Ende eine Software

00:06:49: entwickeln, wenn man sich da reinfuchst. Also ist da die Hüte nicht mehr so

00:06:53: groß. Ja, was ich gerade eben mitgenommen habe, war

00:06:56: ja auf jeden Fall das Thema, einfach mal den Mut zu haben, irgendwas zu machen.

00:07:00: Das kann ich bei mir auch genauso unterschreiben, auch einfach mal zu sagen und das

00:07:04: probieren wir jetzt mal aus und nicht diese typische Angst zu

00:07:07: scheitern, immer in den Vordergrund stellen, was ja viele machen.

00:07:11: Das sehe ich auch so bei meinen Kunden, also die wirklich sagen und auch bereit

00:07:14: sind, jetzt mal neue Wege zu gehen, innovativere Wege zu

00:07:18: gehen. Und vor allem jetzt hier das hier mit dir.

00:07:22: Ich bin kein Freund davon, Texte eins zu eins mit GPT generieren

00:07:26: zu lassen, weil eben das, was du eben angesprochen hast, die Emotionen völlig

00:07:29: flöten geht in der Regel. Und ja, Da ist es ja auch wie bei

00:07:33: allen Modellen so shit in shit out. Also wenn du halt wenig bis

00:07:37: gar keine Inputs da rein gibst und dann davon ausgehst, dass nachher irgendwie

00:07:41: der Wahnsinns Text rausgeht, ist halt einfach nicht möglich.

00:07:44: Und da hilft natürlich so eine Software für dich oder wie du die jetzt hast

00:07:48: hilft natürlich massiv weiter. A für Agenturen,

00:07:51: die es als Dienstleistung anbieten, die wirklich sagen okay wir haben einen riesen

00:07:55: Kundenstamm, jeder Kunde hat so seine eigene Zielgruppe, seine eigene

00:07:59: Zielgruppenansprache und ich stelle es mir dann so vor, dass du wirklich ein

00:08:02: Dashboard hast, wo du die Kunden anlegen kannst, das Know-how der

00:08:06: Kunden quasi in die Software rein füttern kannst und

00:08:10: du sicherstellen kannst, egal wer das jetzt bedient, der Output

00:08:14: ist immer gut oder sehr gut und greift halt

00:08:17: vor allem immer wieder die Schmerzpunkte auch der Zielgruppe ab. Und das ist das,

00:08:21: wo ich mittlerweile auch auf LinkedIn sehe. Ich meine, du bist ja auch da unterwegs.

00:08:26: Ja, da rollen sich mir die Füßennägel hoch, wenn ich mittlerweile da teilweise die

00:08:29: Beiträge sehe, wo ich mir denke, wenn ihr gar keinen Bock

00:08:33: mehr habt, irgendwas selber zu schreiben, dann lasst es doch. Und das ist auch der

00:08:37: Punkt, weshalb ich auch mit meinen Kunden immer rangehe und sage, lasst uns

00:08:40: den Content irgendwie in Form von einem Podcast, in Form von einem Video, wie auch

00:08:44: immer, generieren und das Transkript nutzen. Da wäre

00:08:48: jetzt meine Frage, ist sowas auch in Neuroflash möglich, dass du sagen kannst, man

00:08:51: lädt auch Transkripte von fertigen Inhalten hoch und

00:08:55: nutzt diese dann, die weiter zu verarbeiten? Ja, leider

00:08:59: nicht. Das ist auch ein Anwendungsfall, den ich oder den wir im Marketing bei

00:09:02: uns sehr viel machen. Tatsächlich aber kannst du bei

00:09:06: uns Dokumente hochladen und auch lange Texte, aber es ist

00:09:10: jetzt noch nicht so perfekt optimiert so für diesen Use Case.

00:09:13: Ich gebe hier deine Podcast URL oder YouTube URL an und

00:09:17: wir transkribieren dir das und machen daraus dann direkt schon fünf

00:09:20: Vorschläge für einen Hook oder so. Das leider noch nicht, aber theoretisch

00:09:24: kannst du ein Transkript, so wie bei ChatsGBT, auch hochladen bei uns und

00:09:28: damit dann weiterarbeiten. Da haben wir genau die gleichen Längen und

00:09:31: Kontextfenster und so. Ja, so meinte ich das auch.

00:09:36: So meinte ich das auch. Das Transkript quasi nativ hochladen, jetzt gar nicht unbedingt

00:09:39: mit einer Schnittstelle, die erstmal die Audio transkripiert. Nee,

00:09:43: nee, das kannst du machen, ja. Ja, weil das ist ja... Also da sage ich

00:09:47: halt immer, das ist dann zumindest dein eigenes Wort, deine eigene Sprechweise. Du

00:09:50: könntest rein theoretisch sogar deinen Schreib- und Sprechstil aus

00:09:54: diesem Transkript ableiten. Und das sind halt so

00:09:57: Punkte, die viele einfach unterschätzen. Da wird dann gesagt, ich stelle mir einen Beitrag

00:10:01: zu dem und dem Thema. Ja, und dann erstellt ja jede KI in

00:10:04: irgendeiner Art und Weise den Beitrag zu dem Thema und dann denkt man sich beim

00:10:07: ersten Entwurf so, naja, so richtig der Knaller ist das nicht.

00:10:12: Ich weiß nicht, wie dein Eindruck ist, du bist ja jetzt noch viel länger in

00:10:15: dem Bereich KI drin, als ich das jetzt bin. Aber wenn ich so bei meinen

00:10:18: Kunden über die Schulter schaue, wie die teilweise mit KI umgehen oder auch

00:10:22: andere, da denke ich mir, ich denke mir immer schon, okay, es gibt

00:10:26: viele auf dem Planeten, die deutlich weiter sind als ich. Und wenn ich dann so

00:10:29: die andere Seite sehe, denke ich mir, ich bin schon meilenweit fortgeschritten,

00:10:33: weil ich einfach ganz anderes an das Prompting rangehe, an die Struktur

00:10:37: rangehe, dass ich wirklich ganz gezielt von vornherein schon die den

00:10:40: Aufbau gestalte. Und da ist natürlich deine Software wieder ideal für

00:10:44: Leute, die eben nicht so tief da drin stecken. Also, wir

00:10:48: sehen auf jeden Fall so ein bisschen diese, wie gut bist du schon

00:10:52: mit KI, wie stark beherrschst du das Thema Prompting, wie stark

00:10:55: möchtest du es auch vielleicht beherrschen. Dass

00:10:59: das ein elementarer, ich sag mal, Entscheidungsweg ist. Also

00:11:03: bei uns in der Software bedienen wir sozusagen beide

00:11:06: Gruppen. Du hast wie in Chatshubity ein freies Fell, wo du quasi über

00:11:10: deine Prompting Skills zu guten Texten kommst, aber wir bieten eben

00:11:14: auch sogar so eine Art Promptverbesserer oder Templates,

00:11:17: wo du gar nicht mehr prompen musst. Und da sehen wir schon, dass es auf

00:11:21: jeden Fall, wie du sagst, gerade allein, dass wir jetzt darüber reden. Ich weiß

00:11:25: nicht, ob wir immer noch die early adopter sind. Aber wenn du so diese

00:11:28: Innovationskurve, die anschaust, Wir sind auf jeden Fall ganz weit vorne und

00:11:32: es gibt so viele Leute, die eben damit noch gar nicht wirklich arbeiten

00:11:36: oder noch gar nicht verstanden haben, was es eigentlich ist. Und das ist auf jeden

00:11:40: Fall auch so ein bisschen unsere Verständigung und als unsere Verantwortung, da

00:11:43: Aufklärungsarbeit zu leisten und da eben auch viel die Leute an

00:11:47: die Hand zu nehmen. Das ist, glaube ich, extrem wichtig bei so einer neuen Technologie.

00:11:51: Wie schätzt du die Schnelllebigkeit der LLMs ein? Also jetzt gerade im

00:11:55: Moment, was da so passiert? Also du hast gerade eben die ganze Zeit gesagt, ihr

00:11:58: habt GPT eingebunden in irgendeiner Form. Habt ihr auch andere LLMs mit drin

00:12:02: oder arbeitet ihr aktuell ausschließlich mit GPT? Genau, wir sind sprachmodellunabhängig,

00:12:06: also wir können jedes Sprachmodell bei uns integrieren, testen auch immer

00:12:10: sehr viele. Tatsächlich wirklich die meisten,

00:12:14: die wir nutzen, sind alle von OpenAI derzeit, weil die

00:12:18: für den Use Case, wir machen ja sehr viele interne

00:12:21: Tests mit unseren Use Cases und gucken, haben dann gewisse Evaluierungen

00:12:26: und Benchmarks und sehen, dass da die Modelle immer

00:12:29: noch die besten sind. Und dann gibt es, sag ich mal, so ein

00:12:33: bisschen Präferenzen Richtung Chlord, für gewisse Texte vielleicht

00:12:37: wird dann Chlord mehr benutzt, aber

00:12:41: da ist schon auch hauptsächlich OpenAI-Modelle sind

00:12:44: dabei. Und die Schnelllebigkeit ist, nehme ich jetzt

00:12:48: so ein bisschen wahr, also für

00:12:52: mich zumindest persönlich war das die ersten zwei Jahre nach

00:12:55: Chatshubity sehr, sehr wichtig, dass du da sehr

00:12:59: schnell als, ich sag mal, Softwareanbieter auf die neuen

00:13:02: Modelle gegangen bist. Jetzt der Sprung von

00:13:07: 4 auf 4.5 oder von 4.0 zu 4.5 oder

00:13:11: wie auch immer, das ist kaum spürbar mehr und auch das Thema

00:13:15: von einem normalen LLM in Richtung Reasoning-Modell ist für unseren

00:13:19: Use-Case-Marketing kommt auch nur sehr selten zu

00:13:22: tragen. Deswegen jetzt gerade habe ich so ein bisschen das Gefühl, wir testen immer noch

00:13:26: sehr viel, aber wirklich die spürbare Qualitätssteigerung ist

00:13:29: kaum mehr da für unsere Kunden. Jetzt für die, die hier

00:13:33: zuhören und sich gerade fragen, redet er gerade. LLM und Reasoning.

00:13:37: Also LLM steht für Large Language Model und ist quasi so der Überbegriff für

00:13:41: alle Sprachmodelle, die man so nutzen kann. Und Reasoning, das ist jetzt bei

00:13:44: den neuen Modellen O1 von GPT hinzugefügt

00:13:48: worden. O1 Pro und Claude 3.7

00:13:51: Sonne. Reasoning bedeutet im grunde genommen dass das modell

00:13:55: bevor es einen output gibt erst noch mal so ein stück weit darüber nachdenkt was

00:13:59: für schritte erfüllt werden müssen Perplexity hat es auch mit dem Deep Research

00:14:03: heißt es glaube ich. Oder Deep Research, ich weiß es gar nicht. Deep Research

00:14:07: ist bei OpenAI und bei, ich weiß gar nicht, wie es da heißt.

00:14:11: Tiefe Suche heißt glaube ich bei Perplexity. Deep Search macht Sinn. Deep

00:14:14: Search, ja. Ja, so wie gesagt, das sind halt mittlerweile die neuen Modelle, die

00:14:18: jetzt nicht direkt ein Output geben, sondern auch darüber nachdenken und so eine

00:14:22: gewisse autonome Entscheidungsfindung durchführen, bevor sie

00:14:25: anfangen, ein Output zu generieren. Und das ist natürlich in meinen Augen ein super

00:14:29: spannender Fall, wenn du das jetzt mittlerweile auch in so Tools wie bei

00:14:33: euch implementieren kannst. Ich baue jetzt gerade die ersten Tests in n.n.

00:14:37: Auf, wo ich auch Reasoning Modelle mit implementiere und da

00:14:40: ist halt der Output, also ich finde von nicht Reasoning zu Reasoning ist der

00:14:44: Output schon noch mal deutlich besser. Genau, weil dann erst halt

00:14:48: ist es fügt einen Schritt hinzu und mal also viele Kunden von uns wollen eben

00:14:51: sehr sehr schnell auch Ergebnisse und wollen gar nicht mehr. Also es kommt sehr auf

00:14:54: die Use Case drauf an sozusagen.

00:14:58: Und das ist natürlich ein Punkt. Also Geschwindigkeit erreichst du mit so Modellen halt

00:15:02: nicht. Also wenn du den schnellen Output benötigst, dann bist du mit Reasoning

00:15:05: nicht am richtigen Platz. Definitiv.

00:15:10: Wie siehst du das aktuell so auf dem Markt? Also was ich bei euch nochmal

00:15:14: hervorheben muss, ihr seid ja aus Frankfurt.

00:15:18: Ich komme aus Frankfurt, Unsere Firma sitzt in Hamburg tatsächlich. Aber wir sind auf

00:15:21: jeden Fall aus Deutschland. Ist sie auch noch aus Deutschland. Und da klingeln jetzt bei

00:15:25: allen Datenschutzbehörden, klingeln ja da die Ohren, weil die sich denken,

00:15:29: endlich mal, Oder was heißt endlich mal, ihr seid ja wirklich schon länger am Markt

00:15:32: als viele andere Tools. Aber gerade in der

00:15:36: recht konservativen Maschinenbaubranche, Handwerksbranche,

00:15:40: die haben alle, egal wie klein, irgendwo einen Datenschutzbeauftragten. Und jetzt habt ihr

00:15:44: natürlich mit einer deutschen Firma schon mal eine Hürde

00:15:47: weniger in Richtung meine Modelle könnt ihr verwenden. Wie sieht es

00:15:51: da aus in Bezug auf sensible Daten,

00:15:55: sensible Firmendaten? Wie geht ihr damit Genau, also alles

00:15:58: ist quasi in einem geschlossenen Raum. Also wenn du Kunde bei uns bist, alle

00:16:02: Informationen, die du teilst, alle Dokumente, die du hochlädst, Informationen

00:16:06: über deine Firma kannst du sozusagen sehr

00:16:09: stark innerhalb deines Teams einschränken, aber generell alles, was

00:16:13: hochgeladen wird, ist in einem geschlossenen Raum und auch die

00:16:17: Server liegen alle in Deutschland. Wir haben die ganzen DSGVO

00:16:22: Dokumente und so weiter. Dafür sind wir gut gewappnet. Wir machen jetzt

00:16:26: sogar auch eine ISO-Zertifizierung. Also sind da auf der IT-Security-Ebene

00:16:31: aus meiner Sicht gut aufgestellt. Und auch das

00:16:35: Thema, wie werden meine Daten in die LLMs gegeben?

00:16:39: Die sind auch alle in EU gehostet und müssen eben für die

00:16:43: Textgenerierung einmal verarbeitet werden. Dort werden sie aber wieder gelöscht, also sie

00:16:47: werden auch nicht Teil des Trainings, fürs Training genutzt oder so.

00:16:51: Ja, das ist auf jeden Fall ein wichtiger Punkt, was ich jetzt da irgendwann mal

00:16:54: gehört habe, gerade wenn es sensible Daten geht, dass halt so ein Zwischenschritt

00:16:57: eingefügt werden kann, der dann quasi Namen, E-Mail-Adressen,

00:17:01: sonst irgendwas quasi ersetzt durch irgendwelche Dummies, wenn es jetzt sowas geht.

00:17:05: Aber gerade in der Maschinenbaubranche, wenn du vielleicht

00:17:09: sensible Maschinendokumente hast, die du halt im Teil des

00:17:13: Kontextes mitverwenden willst, dann ist es natürlich schwierig, wenn die nachher zum

00:17:17: Training der Daten verwendet werden und auf einmal generiert jeder halt

00:17:20: deinen Content. Also da hebt ihr euch natürlich schon mal ganz massiv von ab.

00:17:25: Wie sieht denn so ein klassischer Anwendungsfall bei euch aus? Also der Kunde kommt jetzt

00:17:29: zu euch und was, Ich meine, ihr habt ja im Hintergrund wahrscheinlich Zugriff auf das,

00:17:32: was so abläuft. Was sind so die

00:17:36: Haupt-Use-Cases für eure Software?

00:17:40: Also wir sehen von den Nutzergruppen,

00:17:45: Wir kommen aus einer Zeit, wo wir 3000 Nutzer am Tag sich bei uns

00:17:49: registriert haben. Jetzt sind wir so bei 1000. International,

00:17:53: unser Hauptkundenstamm kommt aus der DACH-Region.

00:17:56: Deswegen kannst du dir vorstellen, die Anwendungsfälle sind sehr breit.

00:18:00: Also wir kriegen von dem Studenten, der sein Paper schreiben möchte, bis

00:18:04: hin zu einer großen Marke, die wirklich

00:18:07: vitales Marketing komplett mit NeuroFlash

00:18:11: bearbeiten will. Also, da ist dann der Use Case konsistente Markenbotschaften,

00:18:15: konsistente Content für Social

00:18:18: Media, für Webseite, für E-Mail, also verschiedene Teams

00:18:22: involviert, bis hin zu auch viel visuelle

00:18:26: KI, also wir bieten auch KI-Bildgenerierung an,

00:18:30: Wobei ich da sagen würde, da haben wir das Produkt in den letzten Monaten

00:18:34: nicht stark weiterentwickelt. Da kommt jetzt viel bei uns in den nächsten Monaten.

00:18:38: Aber es melden sich extrem viele Leute an bei uns auch für KI Bildgenerierung.

00:18:44: Und so die Key Use Cases, wenn ich jetzt mehr in Richtung

00:18:47: Unternehmen schaue, ist Social Media, SEO

00:18:51: und eben Brand Content. Das heißt, viele

00:18:55: Leute, die ChatGBT schon ausprobiert haben, zum Beispiel, die sagen,

00:18:59: es hat mich extrem viel Zeit gekostet, den Output aus Chatshubity

00:19:02: nochmal in meine Sprache zu bringen und nochmal zu editieren. Ich

00:19:06: brauche irgendwie eine Software, die meinen Schreibstil, meine Marke besser

00:19:10: versteht, damit der Initiale, der erste Draft, den ich dann sowieso

00:19:13: als Mensch nochmal überarbeiten möchte, aber dass der schon mal besser ist. So das

00:19:17: ist das Thema Brand Voice und wie du es am Anfang sehr schön gesagt hast,

00:19:20: dass jeder im Team guten Content schreibt, gerade wenn

00:19:24: irgendwie, ich merke es jetzt bei uns, dass unsere Brand Voice

00:19:28: sind dann oft Dokumente, die irgendwo in PDFs rumliegen, aber wirklich die

00:19:32: Leute, die dann mit Content produzieren, vergessen dann, dass

00:19:36: die Dokumente existieren und jeder sieht das dann

00:19:40: auch wieder subjektiv oder versteht das vielleicht anders. Und da wollen wir halt

00:19:43: wirklich diese Konsistenz in jedem Kanal, aber auch in jedes

00:19:47: Teammitglied sozusagen bringen. Dadurch, dass wir sehr strukturiert

00:19:50: da unseren Kunden eine Brand Voice einmal definieren und das

00:19:54: dann allem zur Verfügung stellen. Und das zweite SEO ist eben, also viele

00:19:58: lange Texte, Sprachmodelle sind ja

00:20:02: nicht gut darin, echte Keyword-Daten und Suchvolumina und sowas

00:20:05: rauszufinden, aber wenn man diese Daten hat, dann kommt man halt mit

00:20:09: KI auch relativ schnell an einen ersten Entwurf

00:20:13: und man kann gewisse Research-Schritte, sei es jetzt eine

00:20:16: WDS-IDS-Analyse oder sich die Konkurrenten zu dem

00:20:20: Keyword anschauen und die automatisch analysieren. Das kann KI alles im

00:20:24: Hintergrund für dich machen. Das heißt, da gibt es dann nochmal weitere Effizienzschritte,

00:20:29: die wir leisten. Ja, und Social Media, denke ich mal, ist so ein Use Case,

00:20:33: weil du einfach sehr viel über verschiedene Kanäle

00:20:37: hinweg posten musst, ist da auch KI meiner Meinung nach einfach gut

00:20:41: geeignet, wenn du es, wie du schon richtig gesagt hast, eben das vor allem

00:20:45: in deinem Schreibstil passiert. Und eher auch so die

00:20:48: Corporate Accounts, man weniger so die Personal Brands.

00:20:52: Ich muss zwischendurch mal hier mein Audio ausmachen, weil hinter mir schwer gewerkelt

00:20:59: wird. Du hast gerade eben das Thema noch mit Bildern angesprochen. Also zwei Punkte, die

00:21:02: mir jetzt gerade aufgefallen sind. Welches Modell nutzt dir, beziehungsweise was

00:21:06: kommt jetzt neu dazu für die Bildgenerierung? Da nutzen wir

00:21:10: tatsächlich noch mehr Modelle. Wir nutzen Stable Diffusion,

00:21:14: Dolly und aus Black Forest

00:21:18: die Fluxmodelle. Die geht ziemlich steile.

00:21:23: Ja, also wir machen auch sehr positive Erfahrungen

00:21:26: damit. Da ist immer so ein bisschen die Frage, wie kriege ich es hin,

00:21:30: auch Text auf die Bilder zu generieren. Und da gibt es dann manchmal Unterschiede zwischen

00:21:33: Modellen, wo es besser und schlechter funktioniert. Was jetzt hier kommt, ist

00:21:37: wirklich, dass wir so eine Art Visual Editor bauen. Also, dass wir so eine Art

00:21:40: Kannbar, wo du wirklich online deine Bilder bearbeiten kannst, mit

00:21:44: KI-Bild generieren kannst, dann Texte drauf machen kannst und

00:21:49: da in die Richtung wird es dann weiterentwickelt, dass du sozusagen mehr

00:21:53: mit dem Bild machen kannst und da auch vollumfänglich direkt vielleicht ein

00:21:57: Social Media Post auch direkt dann schon fertig hast vom Visual her.

00:22:00: Ja, Das ist natürlich ein Punkt, wo ich sagen muss, da wird es wieder spannend,

00:22:04: weil aktuell ist ja wirklich der Part, du kannst relativ einfach, relativ schnell

00:22:08: Texte schreiben und dann fehlt es am Bild, das

00:22:12: Ganze zu automatisieren. Also da bin ich gespannt, wo da die Reise generell noch hingeht,

00:22:16: so die nächsten Wochen, Monate und vielleicht Jahre, dass man auch

00:22:19: da vielleicht sagen kann, okay, ich hab ein paar Bilder, die ich in irgendeiner Art

00:22:23: und Weise von dem Unternehmen als Dummy hochlade

00:22:27: und sagen kann, okay, generieren wir jetzt aus dieser Sammlung an

00:22:30: Bildern, die ja quasi meine Brand-Image-Voice ist, keine Ahnung, wie man es

00:22:34: nennen soll. Corporate Identity. Corporate Identity, generieren wir doch daraus

00:22:38: bitte neue bilder die halt auch zu mir passen bis

00:22:42: hin zu wir können eigentlich den social media prozess voll

00:22:45: automatisieren das weiß ich nicht habt ihr die habt ihr Anbindung zu

00:22:49: den Social Media Kanälen? Es steht auch auf der Roadmap, also planen wir

00:22:53: auch, weil wir genau das ist unsere Vision von diesem

00:22:57: vollumfänglichen Prozess, also einmal auf der inhaltlichen Ebene, dass du als

00:23:01: Marke deine Strategie gut briefst, definierst,

00:23:05: damit deine Strategie sehr stark und schnell mit KI operationalisiert

00:23:09: werden kann. Das heißt, du als Marke hast Marke Strategie Y,

00:23:13: dann werden dir die passenden Ideen, die deine Zielgruppen

00:23:17: gut ansprechen, vorgeschlagen, die auch vielleicht vogue

00:23:20: sind und Trend in deiner Zielgruppe. Und dann wird halt der

00:23:24: Content vorproduziert mit KI. Du schaust drüber, kannst

00:23:27: gleichzeitig mit deinem Team da sehr viel auch kollaborieren und mit, Das

00:23:31: ist jetzt die neue Funktion, die wir auch jetzt bald releasen, ist so diese unsere

00:23:34: KI-Audience. Weil ich merke es oft, wenn ich selbst

00:23:38: Content schreibe, ich würde am liebsten einen Kunden neben mir sitzen haben, der

00:23:42: genau unsere Zielgruppe ist und ihn fragen, wie findest du das denn? Spricht der der

00:23:46: Slogan an? Was gefällt dir daran nicht so? Das ist

00:23:49: heute mit Sprachmodellen auch schon möglich. Die können sich sehr, sehr schnell

00:23:53: in Zielgruppen oder können sich in Zielgruppen hineindenken und es gibt erste

00:23:57: Paver, die sagen, dass Antworten aus einem

00:24:01: Consumer Panel, also wenn du so wirklich teure Marktforschung machst,

00:24:05: können mit einer Genauigkeit von 85

00:24:08: Prozent auch über die LLMs generiert werden. Und dann auch von jedem

00:24:12: möglichen Audience. Du kannst auch Ferrari-Fahrer als Zielgruppe

00:24:16: definieren. Und es ist sehr schwer, Ferrari-Fahrer in eine Marktworschung zu

00:24:19: bekommen. Die müsstest du sehr viel Geld zahlen, damit die überhaupt eine Minute mit dir

00:24:23: verbringen. Und da glauben wir eben genau an diesen,

00:24:27: dass der Kreationsprozess sehr stark Strategie

00:24:30: getrieben und standardisiert werden kann, aber gleichzeitig auch

00:24:35: der Kreationsprozess sehr viel mehr diese Optimierungsschleife, die

00:24:39: du eigentlich ohne KI erst nachdem du den Content publiziert hast,

00:24:42: bekommst, schon bevor du ihn publiziert hast, bekommst. Und

00:24:46: deswegen dieses, und dann fehlt halt noch auf der Prozessebene, dass eigentlich

00:24:50: der Post direkt auf LinkedIn oder wo auch immer gepostet wird, damit du dir da

00:24:53: auch wieder so ein, zwei Minütchen sparst, aber am Ende läppert sich das halt

00:24:57: dann. Ja, vor allem dieser Kontrollpunkt, witzigerweise

00:25:01: ich bin gerade aktuell noch an der Automatisierung für einen Kunden dran, wo es auch

00:25:05: einen Bereich geht, über ein Formular

00:25:09: Inputs aus dem Team reinkommen und daraus dann nachher verschiedene

00:25:12: Punkte erstellt werden sollen. Und da habe ich jetzt in NNN noch einen

00:25:16: Correction Agent hinzugefügt, der quasi den Output jetzt

00:25:19: brieft und mir einen Content Score

00:25:23: zwischen 1 und 100 generiert. Und alles, was unter 85

00:25:27: ist, geht in eine Korrekturschleife und wird automatisch wieder eingespielt,

00:25:31: bis halt irgendwann der Output auf über 85 Prozent ist und dann erst

00:25:35: geht quasi der Output weiter in die nächste Schleife. Auf was

00:25:39: bewertet der Correction Agent das dann? Der hat eine klare Struktur, wie

00:25:42: sowas aussehen soll, was an Inhalten drin ist oder drin sein soll und

00:25:46: überprüft jetzt quasi das was im ersten step von der KI generiert wurde

00:25:50: auf diese Inhalte und wenn irgendwas fehlt oder falsch formuliert

00:25:54: ist oder irgendwie nicht der genauen Formatierung entspricht gibt es halt wieder zurück gibt

00:25:57: klare Handlungsanweisungen an die KI, das halt

00:26:01: dann im zweiten step zu korrigieren Und der korrigierte Step geht dann

00:26:05: halt wieder durch die Schleife durch, wird überprüft und bis der halt irgendwann

00:26:09: sagt, okay ich habe 85 Prozent. Da muss ich jetzt halt mal noch ein bisschen

00:26:12: nivellieren, wo die Reise hingeht und da noch ein bisschen feinschleifen. Aber der

00:26:16: Hintergedanke ist quasi, dass ich mit dem ersten Input, der aus dem Formular

00:26:19: reinkommt, was generiere, was schon mal so gut vom

00:26:23: Aufbau ist, dass ich im Anschluss aus diesem Output quasi alle

00:26:27: weiteren Schritte abgreifen kann und habe halt diese händische

00:26:30: Analyse gar nicht mehr mit drin. Und in diesen Analyse Agent könnte ich jetzt

00:26:34: beispielsweise auch Zielgruppen reinbringen, könnte den Schreibstil noch mit integrieren,

00:26:38: der halt dann mit abgegriffen wird. Ja, das ist ein sehr

00:26:41: ähnlicher Gedanke. Was wir bei uns noch mehr machen, ist,

00:26:45: dass wir initial mehrere Varianten schon generieren und im

00:26:49: Hintergrund die Varianten auch scoren und dann dem Kunden nur die Top

00:26:52: drei anzeigen. Und so kriegt er direkt halt mehr den relevanteren

00:26:56: Inhalt angezeigt. Aber sehr smartes

00:27:00: Gang und ich glaube da hilft dir halt KI auch wieder, als dein

00:27:04: Sparingspartner sein. Das machen sehr wenig

00:27:07: Leute bisher. Ja, das ist auch mein Eindruck, den ich so habe.

00:27:11: Es wird meistens ein Input reingegeben, dann kommt ein Output raus und es

00:27:15: findet eigentlich in der Regel nie ein Korrekturschleife statt in dem

00:27:18: LLM. Also es wird vielleicht der Text dann rausgezogen, dann händisch noch mal überarbeitet,

00:27:23: anstelle aber zu sagen, okay hier der untere Absatz passt mir noch nicht so gut,

00:27:26: der geht mir zu sehr in die Richtung, bitte noch mal anpassen und halt wirklich

00:27:30: das LLM in dem Sinne zu nutzen, den Text wieder

00:27:34: umzuschreiben. Du hast aber noch ein Use Case mitgebracht. Wir

00:27:37: haben ja hier die Möglichkeit, den Bildschirm zu teilen. Da bin ich jetzt super gespannt,

00:27:41: was da kommt. Genau, ich kann einfach mal...

00:27:45: Also einfach für diejenigen, die jetzt mal so ein bisschen wissen wollen, wie sieht Neuroflash

00:27:49: im Hintergrund aus? Neuroflash oder Neuroflash?

00:27:52: Neuroflash. Neuroflash. Wie sieht das so im Hintergrund aus? Wie ist es zu bedienen?

00:27:56: Und was ist vor allem da möglich? Hat der Hendrik

00:28:00: mal gerade was vorbereitet? Da bin ich... Ach, der Ankerkraut-Test. Jetzt bin ich

00:28:03: gespannt. Ah. Also, ihr seht jetzt hier wirklich,

00:28:07: was erst wahrscheinlich in zwei, drei Wochen

00:28:11: released wird. Aber wie du es vorhin schon beschrieben hast, wollte ich vor allem

00:28:15: mal auf das Thema Brand Voice zu sprechen kommen. Also es ist

00:28:18: so, wie du gesagt hast, wir haben den sogenannten Brand Hub, wo du

00:28:22: Informationen hochladen kannst, in Form von PDF-Dateien, URLs

00:28:26: hinterlegen kannst, wo du quasi uns was über dein Unternehmen,

00:28:30: zu deiner Zielgruppe, zu deinen Produkten erzählst, was

00:28:33: dann immer wieder im Kontext der Textgenerierung verwendet

00:28:36: wird. Und wir haben eben auch Brand Voices, die haben wir

00:28:40: heute schon. Eine Brand Voice heute ist sehr

00:28:43: viel, ist, sag ich mal, eine Umschreibung deiner Markensprache

00:28:47: und Schreibstil und sie wird jetzt, wir nennen es

00:28:51: wirklich Brand Voice Upgrade, weil du siehst, du hast jetzt hier

00:28:54: ganze Markenprofile, die du dann erstellen kannst. Das heißt, du kriegst auch

00:28:58: so eine Art Analyse über deine Tonalität, kannst auch Keywords

00:29:02: eingeben, die sozusagen oft in deinem Content bewende

00:29:05: werden möchtest, weil du für gewisse Wörter stehen möchtest. Du kannst auch deine

00:29:09: Markenwerte mit reinbringen, damit der Content auch implizit dann deine

00:29:13: Markenwerte unterstützt. Du hast sehr genaue Möglichkeiten, den

00:29:16: Schreibstil, welche Abkürzungen sollen verwendet werden, wie

00:29:20: viele, schreibst du in Passiv, Aktiv, Sie- oder

00:29:24: Du-Form, Emojis verwenden ja, nein, du hast auch die ganze

00:29:27: Formatierungsregeln, also was darf

00:29:31: in der Überschrift verwendet werden, wie soll eine Telefonnummer formatiert werden, welche

00:29:34: Währung soll in den Texten stehen und du hast auch ein

00:29:38: Klosar oder sozusagen gewisse Abkürzungen, die die KI vielleicht so

00:29:42: noch gar nicht richtig versteht, kannst du hier auch noch mal mehr briefen und

00:29:46: dann als größere Firma gibt es ja oft nochmal so interne

00:29:49: Regeln, wie zum Beispiel bei uns bei Euroflash, wenn wir das über die

00:29:53: LLMs produzieren lassen, dann schreiben wir es immer mit großem N, aber unsere Marke

00:29:57: sagt N klein, bitte klein. Und das geht immer falsch und das würde ich

00:30:00: hier in so einer fortgeschrittenen Regel hinterlegen können, sodass dann

00:30:04: jeder Text, der dann produziert wird, ein Euroflash in kleinem

00:30:08: N schreibt. Das heißt, du siehst hier wirklich, es geht sehr, sehr tief

00:30:12: und am Ende kannst du das dann, das zeige ich jetzt hier kurz auf

00:30:15: der Live-Umgebung, hast du im Endeffekt

00:30:19: Dokumente, die du anlegst, oder sogenannte Workflows, mit denen du

00:30:23: starten kannst, oder Chatflash, das ist sozusagen unser

00:30:27: vergleichbares Interface wie ChatGBT. Du siehst hier unten schon, du

00:30:31: kannst dann deine Marken, Brand Voices auswählen. Das heißt, das

00:30:35: ist halt genau das Hilfreichste. Du kannst natürlich in Chats, die verschiedene

00:30:38: GPTs antrainieren. Aber wenn du wirklich viel switchst oder auch für

00:30:42: verschiedene Kanäle, Brand Voices angestellt, ist es immer sehr viel aufwendiger.

00:30:46: Und so granular, wie du jetzt bei uns eben bald eine Markensprache

00:30:50: definieren kannst, schaffen das die wenigsten in ChattyBT

00:30:54: selbst sozusagen hinzubekommen. Und wir

00:30:57: haben ja also viele, ein Prompt Engineer und

00:31:01: drei Data Sciences, die wirklich super viel da auf Fine-Tuning und sowas

00:31:05: gemacht haben im Hintergrund. Und da siehst du jetzt eben hier, du kannst deine Brand

00:31:08: Voice auswählen, deine Informationen hochladen oder anwählen, die

00:31:11: verschiedene Modelle auswählen und auch Promptvorlagen im Team teilen

00:31:15: oder aus der Community nutzen. Und so kann es einfach

00:31:19: starten. Und das Interface ist eben auch dafür spezialisiert, eher

00:31:22: im Team und als Marketing zu arbeiten. Das heißt,

00:31:26: wir arbeiten direkt mit Dokumenten, weil einfach Dokumente aus

00:31:30: meiner Sicht, wenn man gerade lange Texte schreibt, kannst du es editieren, du kannst

00:31:33: auch die KI nutzen, nach und nach mal umzuschreiben und so weiter. Und du hast

00:31:37: am Ende eben die Möglichkeit, das alles runterzuladen oder direkt als

00:31:41: HTML sogar zu exportieren. Und hast dann eben hier

00:31:44: verschiedene Features noch, je nachdem,

00:31:48: wie gut du schon prompting kannst. Wenn du zum Beispiel

00:31:52: einfach sehr schnell neue Vorschläge bekommen möchtest, kannst du eben

00:31:56: hier aus unseren 100 verschiedenen Textarten,

00:31:59: Texttemplates dann einfach auswählen. Also kannst du dann, wenn

00:32:03: du jetzt den Social Media Use Case hat. Ich switch mal kurz schnell

00:32:07: auf Deutsch. Du siehst, wir haben so 14 verschiedene Sprachen, in denen

00:32:11: wir Content von scratch produzieren können. Und dann kann man eben hier

00:32:14: in Instagram Caption. Wollen

00:32:18: wir ein Beispiel machen mit einem Use Case von deinem Kunden?

00:32:23: Ja bitte. Was nehmen wir denn für ein Use Case?

00:32:27: Ein Kunde von mir, der baut Rollfenster

00:32:31: und das sind eigentlich Windschutzrollos

00:32:35: für Terrassenüberdachung.

00:32:39: Ganz spezifisch. Hast

00:32:42: du gerade noch ein anderes Fenster offen, weil ich sehe jetzt hier nur den Bälle

00:32:45: eine Textart im Bildschirm. Ja genau. Die Frage ist, sollen

00:32:49: wir für den schnell eine Brand Voice anlegen? Das geht ganz schnell.

00:32:53: Meinen Segen hast du. Ich hoffe, ich kann dir alle Antworten geben, die du brauchst.

00:32:56: Ich brauche nur eine URL eigentlich. Ja, genau, weil die Brand Voice, wie du

00:33:00: die bei uns anlegen kannst, ist eben auch ganz simpel. Du

00:33:04: müsstest einfach eine Seite finden, die so ein bisschen

00:33:08: über die Firma spricht. Okay, das sind jetzt die letzten

00:33:12: Texte hier. Versuchen wir das mal so.

00:33:16: Ist jetzt nicht so viel Text, aber ich bin jetzt in der

00:33:19: Brand Voice Erstellung drin. Ich könnte jetzt hier einfach ein URL angeben.

00:33:24: Das heißt, da empfehle ich immer so die Überuns-Seite, die Philosophie-Seite

00:33:27: etc. Zu benutzen. Ich

00:33:31: würde jetzt einfach mal die Seite nehmen, auch wenn da jetzt nicht so viel drauf

00:33:35: steht. Dann würde ich jetzt einfach die Über-uns-Seite mal das

00:33:39: Unternehmen nehmen. Und jetzt analysiert er, geht da quasi auf die Seite

00:33:42: drauf und versucht zu verstehen, wie ist die Tonalität, Schreibstil, wer

00:33:46: ist die Zielgruppe dieser Marke. Das

00:33:50: dauert dann meistens so fünf bis zehn Sekunden. Und dann kriege ich

00:33:53: einen Vorschlag, das ist eben jetzt noch unsere alte Brand Voice. Du siehst, die ist

00:33:57: weniger granular und eher in Textform. Dadurch

00:34:00: weniger übersichtlich. Aber am Ende stehen

00:34:04: dann so Sachen drin, wie Definition, wer ist Gertz,

00:34:08: was sind die linguistischen Guidelines, was sind Do's und Don'ts,

00:34:12: was sind vielleicht gewisse Begriffe, die speziell

00:34:16: nochmal definiert werden sollen. Das würdest

00:34:20: du jetzt als Profi, der die Marke besser kennt, nochmal durchgehen, nochmal ein bisschen editieren.

00:34:23: Ich gehe auf weiter. Ich falte mir die jetzt einfach als Gertz ab.

00:34:30: Und habe die jetzt hier in meinem Brand Hub drin und kann jetzt eben hier

00:34:33: sagen, ich nehme jetzt die Brand Voice Care

00:34:37: aus und jetzt kann ich eben nochmal prompen oder ich nehme einen Promptvorlag

00:34:41: und schreibe mir zwei neue Vorschläge,

00:34:47: einen Slogan. Wenn du das jetzt

00:34:51: ohne die Brand Voice schreiben würdest, dann wüsste er gar nicht, wer ist die

00:34:55: Firma, worüber. Und dadurch, dass ich jetzt, der Prompt

00:34:58: ist immer noch schlecht, weil es sehr wenig ist, aber am Ende siehst du, hat

00:35:02: er jetzt im Hintergrund verstanden, wofür ich einen Slogan

00:35:06: schreiben soll sozusagen. Das ist im Endeffekt die Brand Voice, die ist

00:35:09: überall in einem Dokument angewählt. Das heißt,

00:35:13: egal ob ich jetzt hier über die Templates mir Texte produziere,

00:35:16: zum Beispiel in der Produktbeschreibung für neues

00:35:20: Rollo oder so, dann greift er immer wieder auf die Brand Voice

00:35:24: zurück. Also ich mache das hier einfach mal

00:35:29: Windschutz dann klicke Gas und sage jetzt

00:35:33: hier, Brand Voice Kerze schon ausgewählt. Kann jetzt hier auch nochmal

00:35:36: Anzahl Vorschläge anwählen und hier bekomme ich jetzt eher verschiedene

00:35:40: Varianten für eine Produktbeschreibung und gleichzeitig so eine Art Score,

00:35:43: wie gut ist womöglich diese Produktbeschreibung in Form von

00:35:47: Lesbarkeit, also wie leicht lesbar sind die Texte und wie emotional sind die

00:35:51: Texte. Siehst du hier unten, danach wird das dann auch sortiert und dann kann ich

00:35:54: hier einfach draufklicken, den Text auf den Editor setzen und dann hier eben nochmal

00:35:58: weiterarbeiten und sagen analysieren wir den Text nochmal oder

00:36:03: schreibe mir den Text in Bullet Points. Und dann kannst du

00:36:06: quasi mit dem Anwählen, weißt du jetzt genau, den Text soll ich jetzt nochmal in

00:36:10: Bullet Points sagen und dann hier einfügen, dann fügst du das einfach unten drunter ein.

00:36:13: Also du hast quasi auf dem Editor auch nochmal diese Generierungsmöglichkeiten,

00:36:17: die sich da einfach nochmal effizienter machen, weil es eben kein

00:36:21: Chat-Konversationsfenster ist sozusagen.

00:36:25: Den Chat hast du immer noch hier rechts, kannst natürlich die Ergebnisse dann auch

00:36:28: einfügen. Bildgenerierung ist eben auch integriert.

00:36:32: Da finde ich die Funktion Eingabe optimieren immer ganz

00:36:36: cool. Weil ich finde, Prompts für Bildgenerierung zu schreiben, ist

00:36:40: nochmal sehr viel schwieriger als für den Textbereich. Und da haben wir eben so verschiedene

00:36:44: Templates. Zum Beispiel, wenn du jetzt ein realistisches

00:36:47: Foto haben möchtest, dann

00:36:51: nehmen wir jetzt mal Flux Pro. Jetzt bin ich gespannt.

00:36:55: Ich habe jetzt den Prompt nicht gelesen. Du siehst, er hat den auch in Englisch

00:36:59: gemacht, weil manchmal die Bildmodelle auf Englisch noch mal besser funktionieren. Ich hoffe, er

00:37:02: versteht jetzt den Begriff Windschutz rollos. Musst du mir jetzt

00:37:06: sagen, wie das wird. Nein, also das ist nicht ganz das Produkt, was die

00:37:10: haben, aber es ist zumindest schon mal an einer Terrassenüberdachung

00:37:14: dran. Aber ich bin schon, ich finde das

00:37:17: schon erstaunlich, wie gut Flux mittlerweile Bilder

00:37:21: generiert. Also mein Eindruck, du erkennst doch

00:37:25: jetzt hier nicht, dass es KI generiert ist. Also zumindest nicht auf die Distanz jetzt

00:37:28: am Bildschirm. Aber das, was du gerade gesagt

00:37:32: hast, das ist aus meiner Sicht, wenn das möglich ist mit der

00:37:35: Technologie, nämlich ich habe ein Produkt, ich

00:37:39: habe vielleicht ein Product Shot und das möchte ich für Social Media

00:37:43: in die verschiedenen Szenen setzen. Oder ein

00:37:47: Joggingschuh, bitte zieh den an einen Mann, der

00:37:50: gerade im Wald joggen geht. Und das geht leider heute.

00:37:54: Versuchen das Startups, wenn sie so wirklich 3D-Scans machen von den Produkten und dann

00:37:58: wirklich 3D-Modelle bauen, dann geht das. Aber das ist halt nicht skalierbar.

00:38:02: Und Ich hoffe, dass wir das jetzt in den nächsten Monaten gelöst

00:38:06: bekommen. Google hat da schon einen großen Fortschritt gemacht tatsächlich.

00:38:09: Damit experimentieren wir auch gerade viel, die quasi existierende Bilder

00:38:13: dann einfach verändern können. Kann man dann so einen Produktshot hochladen

00:38:17: und sagen, setzte mir den Schuh an einen Mann

00:38:20: joggend im Wald. Man sieht es schon fast so aus.

00:38:25: Und man sieht nicht, dass er sechs Zehen hat. Richtig.

00:38:29: Das Problem haben wir, zwei fliegen mit einer klatsche gelöst wunderbar schuhe

00:38:33: angezogen sind die sechs zehen weg ja also

00:38:36: ich finde schon krass was da als möglich ist also vor allem jetzt auch aus

00:38:41: ich betrachte das jetzt aus zweierlei sicht ich bin relativ weit

00:38:44: auch in dem Thema Prompting und kann mir damit meinen Modellen, ich weiß

00:38:48: also welches Modell ich für welche Aufgabe nutzen muss, aber

00:38:52: für eigentlich die meisten meiner Kunden ist halt hier so ein Tool

00:38:56: in der Art und Weise würde halt einfach den Prozess ein

00:39:00: Vielfaches erleichtern und vor allem jetzt ist die Person, die fürs

00:39:03: Marketing zuständig ist, vielleicht mal krank oder es kommt mal ein Praktikant dazu. Und dann

00:39:07: kann man den Praktikanten sagen Bitte schön, das sind die Themen.

00:39:11: Feuer frei. Ja, und was du hier siehst, das sind unsere

00:39:15: Workflows, die wirklich im Hintergrund auch nochmal sehr viel mehr machen für dich. Also

00:39:18: jetzt unser SEO Workflow zum Beispiel, da gibst du die Keywords ein, die

00:39:22: relevant sind für dich. Und im Hintergrund wird direkt eine WDS-IS-Analyse

00:39:26: getriggert, zu gucken, welche anderen Keywords sind noch relevant, semantisch relevant,

00:39:30: werden dann direkt in den Artikel mit eingebaut. Und das ist auch

00:39:34: eine sehr leichte Art und Weise, gar nicht so sehr viel über

00:39:38: das Thema Prompting zu wissen, aber gleichzeitig im Hintergrund auch

00:39:41: viele Prozessschritte zu automatisieren. Ja, Definitiv.

00:39:46: Bist du jetzt gerade was am Generieren im Hintergrund? Nee,

00:39:50: ich würde jetzt hier glaube ich stoppen, weil sonst geht es zu tief in die

00:39:53: Demo rein. Aber ich wollte nur noch mal kurz die Oberfläche mit den Workflows zeigen

00:39:57: am Ende. Ich kann mal gerade gucken, ob ich da noch einen Beispieltext

00:40:00: habe. Kommen dann wirklich ganze

00:40:04: Artikel raus, die, naja, in dem

00:40:08: Fall, das ist faszinierend. Also es kommen wirklich 3000

00:40:12: Wort lange Artikel raus, mit Bild, mit Unterüberschriften, auch

00:40:15: mit, was haben Fragen, was haben die Leute in Google gefragt diese

00:40:19: People also fragen werden direkt beantwortet.

00:40:24: Und da fassen wir einfach viele Prozessschritte dann zusammen mit diesen Workflows.

00:40:29: Jetzt hast du mich fast so weit dass ich mir gleich einen Zugang einrichte. Ja,

00:40:32: das können wir gerne im Nachgang lösen. Mega gut. Ich finde vor

00:40:36: allem, was ich auf jeden Fall jetzt mal hier raushöre, ihr seid

00:40:39: ja schon seit ziemlich zu Beginn mit dran und

00:40:43: die Kunden profitieren natürlich dann von eurem Know-how. Also ihr seid

00:40:47: jetzt keiner der jetzt gerade gesagt hat, ah wunderbar KI ist jetzt in aller Munde,

00:40:50: ich entwickle jetzt mal so ein Produkt, sondern ihr seid ja eigentlich mit den

00:40:54: ganzen LLM Herstellern durch die Entwicklungsprozesse durchgegangen und habt

00:40:57: euer Produkt einfach weiter entwickelt. Also ohne dafür jetzt irgendwie explizit

00:41:01: werben zu wollen, merkt man schon, dass hier auch ein

00:41:05: weitgehender Gedanke dahinter ist, in diesem Produkt,

00:41:09: einfach nicht nur für euch ein Produkt zu bauen, wo ihr natürlich euren

00:41:12: Lebensunterhalt mit bestreiten wollt, davon mal abgesehen, sondern dass ihr halt wirklich einen Mehrwert

00:41:16: bieten wollt für eure Kunden, die dann halt sagen, okay, wir haben hier eine Investition

00:41:20: für ein Tool. Das ist ja immer so die Abwägung, die sich die Unternehmen machen.

00:41:24: Aber wir haben eine Investition, die uns aber auf der anderen Seite des Schreibtisches eine

00:41:27: gewisse Anzahl an Stunden spart für Tätigkeiten, die jetzt einfach

00:41:31: mittlerweile benötigt werden, halt einen klaren Unterschied zum Wettbewerb

00:41:35: dazu dazubieten. Und dann ist meine Sache aber am Ende glauben wir

00:41:39: eben auch oder ist unsere Vision, dass durch dieses Feedback der

00:41:43: Audiences durch unsere Scores du auch besseren Content, der einfach einen

00:41:47: höheren Return of Investment bringt.

00:41:50: Also an beiden Ebenen, glaube ich, kämpfen wir sozusagen. Zeit, Effizienz,

00:41:54: aber auch Effektivitätssteigerung des Marketings.

00:41:58: Ja, perfekt. Ja, und der Stelle auf jeden Fall schon mal vielen Dank.

00:42:02: Dreiviertelstunde haben wir jetzt geknackt. Der Pitch

00:42:06: gehört dir. Ja, ich freue mich, wenn

00:42:09: ihr uns austestet, uns Feedback gebt, vor allem, wie du es, glaube ich, gerade

00:42:13: gesagt hast, Felix. Mehrwert ist natürlich, das ist genau unser

00:42:17: Ziel, weil auch selbst wenn wir am Ende unser Unterhalt davon

00:42:21: bezahlen müssen, das geht nur, wenn wir ein cooles Produkt und ein

00:42:24: wertvolles Produkt für euch entwickeln. Und gerade für

00:42:29: Maschinenbaubranche wäre ich super interessiert, ob ihr da noch

00:42:32: mal individuelle Use Cases habt, die wir da vielleicht mit euch gemeinsam

00:42:36: entwickeln können und freue mich über Kontaktaufnahmen über diverse

00:42:40: Kanäle. Ansonsten danke fürs Zuhören. Vielen Dank

00:42:44: auf jeden Fall für deine Zeit. Super spannendes Produkt und ich hatte ja

00:42:47: eingangs schon mal erwähnt, ich bin glaube ich vor zwei Jahren oder so

00:42:51: oder müsste zwei Jahre her sein in der Zeit in der Agentur bin ich mal

00:42:54: irgendwann darüber gestolpert. Man findet ja auch diverse Video

00:42:58: Tutorials von euch auf YouTube, wo das Produkt erklärt wird. In der

00:43:01: Regel echt gelobt wird muss man sagen, also dass die Leute wirklich ihren Benefit da

00:43:05: drin haben. Und von daher finde ich super, super cool, dass du hier den Weg

00:43:08: in meinen Podcast gefunden hast über verworrene Wege. Ich hatte ja

00:43:12: eingangs gesagt, ich bin ja eher ein kleines Licht im Vergleich zu euch. Also ein

00:43:15: OMR-Schild hängt hinter mir noch keins. Also von

00:43:19: daher, nee, tipptopp. Hat Spaß gemacht, danke

00:43:22: dir. Ebenso. Ansonsten, ja, ich hoffe, du konntest was

00:43:26: mitnehmen. Alle Links, die Henrik mir zur Verfügung stellt, findest du unten in

00:43:30: der Videobeschreibung oder in der Podcastbeschreibung. Klick gerne rein

00:43:33: oder schreib Hendrik direkt an, wenn du sagst, ich habe einen Use Case, den würde

00:43:37: ich gerne gemeinsam mit NeuroFlash entwickeln oder dabei

00:43:41: an der Entwicklung teilnehmen. Schreib einfach und

00:43:44: dann schauen wir, was sich ergibt. In diesem Sinne vielen Dank fürs Zuhören und bis

00:43:48: zur nächsten Folge!