#renault #scenic #news #futur #mobility #drivethechange #electric #together

Recogni: KI-Chips erobern Autoindustrie

Recogni: KI-Chips erobern Autoindustrie

Warning: Undefined array key "use_custom_image" in /var/www/htdocs/web9/treffen/wp-content/plugins/custom-about-author/display-about-author-block.php on line 134

Gilles Backhus, Mitgründer von Recogni, gab in der gemeinsamen Podcast-Folge tiefgreifende Einblicke in die Arbeit und die Ziele seines Unternehmens. Recogni, Ende 2017 sowohl in Kalifornien als auch in München gegründet, konzentriert sich auf die Entwicklung von Prozessoren für KI-Inferenz, also das Ausführen bereits trainierter Modelle. Ihr besonderer Fokus liegt auf der Automobilbranche, wobei sie Lösungen anbieten, die über die reine Chip-Herstellung hinausgehen und verschiedene Software- und Hardware-Layer beinhalten.

Ein Merkmal von Recogni ist die tiefgehende mathematische Innovation, die sie in ihre Technologie integriert haben. Indem sie die ständigen Multiplikationen und Additionen in neuronalen Netzwerken effizienter gestalten, erreichen sie eine erhebliche Steigerung der Verarbeitungseffizienz. Diese Effizienz ist besonders entscheidend, da sie den Energieverbrauch der Chips reduziert, was wiederum die Reichweite von Elektroautos erheblich verbessern kann.

Die Gründung von Standorten in Kalifornien und München wurde durch die Notwendigkeit getrieben, ein hoch qualifiziertes KI-Team in Europa aufzubauen. Dies ergab sich aus dem Mangel an KI-Entwicklern im Silicon Valley und der starken Präsenz mathematisch talentierter Absolventen in München.

Die von Recogni entwickelten Chips bieten signifikante Vorteile für moderne Automobile. Sie ermöglichen deutliche Verbesserungen bei ADAS-Funktionen wie automatischen Tempomat und Verkehrsschildererkennung. Durch ihre Fähigkeit, hochauflösende Kamerabilder effizient zu verarbeiten, tragen sie zu einer robusteren und zuverlässigeren Fahrzeugautomatisierung bei.

Diese Fortschritte sind nicht nur für die Verbesserung der aktuellen Autofahrerassistenzsysteme relevant, sondern bilden auch eine wichtige Grundlage für die Weiterentwicklung des autonomen Fahrens, insbesondere in den Bereichen Level 4 und Level 5. Im Detail versteht dies Gilles besser herüberzubringen. Wir gehen direkt rein ins Gespräch mit ihm.

Gerne kannst du mir auch weitere Fragen zur E-Mobilität per Mail zukommen lassen, welche dich im Alltag beschäftigen. Die Antwort darauf könnte auch für andere Höre:innen des Podcasts von Interesse sein. Wie immer gilt: Über Kritik, Kommentare und Co. freue ich mich natürlich. Also gerne melden, auch für die bereits erwähnten Themenvorschläge. Und über eine positive Bewertung, beim Podcast-Anbieter deiner Wahl, freue ich mich natürlich auch sehr! Danke.

Transkript zu Energieeffizienz trifft auf High-Tech: Recognis Einfluss auf die E-Auto-Reichweite

Sebastian

Hi Gilles! Vielen Dank, dass du dir heute die Zeit nimmst, dass wir uns ein wenig über euch unterhalten, über euer Produkt, was dem E-Auto mehr Reichweite bringt, ohne dass jetzt von außen ersichtlich großartig was dran geändert wird. Bevor wir da allerdings eintauchen und es ein Stück weit besser verstehen können, wie ihr das erreicht, stell dich doch gerne mal selbst vor und dann auch das Unternehmen, für das du tätig bist.

Gilles Backhus

Hallo, ich bin Gilles Backhus. Ich bin Mitgründer bei Recogni. Uns gibt es jetzt sechs Jahre, ein wenig mehr, und wir haben die Firma Ende 2017 sowohl in Kalifornien als auch in München gleichzeitig gestartet, mit dem Ziel für AI Inference – also nicht Training, sondern das Ausführen schon fertig trainierter Modelle – Prozessoren zu entwickeln, also Chips, Prozessoren, Silicon, ASICs, wie auch immer man es nennen will, alles mehr oder weniger ein Synonym jetzt erst mal. Und da haben wir uns dann recht schnell auch dafür entschieden, dass wir die Automobilbranche als unseren Markt angehen und dafür Lösungen entwickeln. Das geht natürlich auch manchmal über nur den Chip hinaus, also da gibt es natürlich viele Software-Layer drumherum. Der Chip sitzt auch auf Platinen – das heißt, auch Hardware-Entwicklung ist natürlich mit dabei. Es gibt natürlich einige Player in dem Space, manche größere, manche kleinere, auch ein paar andere Start-ups.

Aber das, was uns, glaube ich, da ein wenig abhebt, ist, dass wir auf sehr tiefer mathematischer Ebene ein paar Innovationen betrieben haben. Also ganz im Grunde, neuronale Netze, AI quasi, bestehen zu 50 % aus Multiplikationen und zu 50 % aus Additionen. Und diese Mathematik oder diese mathematischen Operatoren, die permanent anfallen, sehr viele davon, da haben wir uns überlegt: Wie kann man das denn von Grund auf ein wenig anders machen, ohne jetzt Genauigkeit zu verlieren? Und da haben wir es eben geschafft, mindestens Faktor 10, wenn man es jetzt mit größeren vergleicht, effizienter zu werden, auch denser zu werden, also mehr Operationen pro Sekunde pro Quadratmillimeter an Chipfläche. Das ist immer so eine Metrik, die ganz interessant ist.

Das ist so im Endeffekt Recogni. Und wie zuvor besprochen, uns gibt es im Silicon Valley und in München, mehr oder weniger fifty-fifty.

Sebastian

Warum habt ihr euch dafür entschieden, sowohl in Kalifornien als auch in München dann gleichzeitig an den Start zu gehen?

Gilles Backhus

Gute Frage. Das hat nicht damit zu tun, dass in München so viel Automobil ist. Das kam durch einen anderen Zufall. Mein Mitgründer, RK Anand, der auch am Anfang unser CEO war, der hatte mich quasi mit reingeholt. Mitte 2017 hat er mich kontaktiert. Ich kannte ihn schon aus meiner Masterarbeit in einem anderen Start-up, wo er CEO war. Und er hat gesagt: „Hey, pass auf, wir wollen eine AI-Chip-Firma gründen“, was grundsätzlich für mich ein Traum war, weil Chips waren schon lange eine Passion für mich. AI wurde dann durch Studium und Werkstudentenjobs und so was meine Expertise, und dann hat das super gepasst. Und er hat gesagt: „Wir brauchen in Europa einen Mitgründer, der dort das AI-Team aufbaut“, weil 2017 war es so, es gab nicht so viele AI-Entwickler.

Wenn du einer warst im Silicon Valley, dann musstest du nur kurz deine Hand heben und wurdest sofort von Apple oder Google eingestellt und wurdest weggenommen vom Talent-Markt, während man hier gerade in München jetzt zum Beispiel mit der TU München und anderen Universitäten sehr gute Schmieden hat, die mathematisch talentierte junge Leute hervorbringen, und von denen haben wir auch dann hauptsächlich eingestellt. Und so haben wir es doch geschafft, hier ein extrem gutes Team aufzubauen. So kam das einfach, über diese Connection von damals, von der Masterarbeit.

Dann habe ich gesagt: „Jo, ich mache mit.“ Das war eigentlich nie was fest Abgesprochenes, aber es ist einfach so passiert, dass wir immer mehr oder weniger die Waage gehalten haben, hier 50 %, drüben 50 %, und dann haben wir uns erst, nachdem schon klar war, dass ich halt eben hier in München sein werde, ein paar Monate später dann auch wirklich für Automotive, also sogar ein Jahr später. Am Anfang hatten wir noch überlegt, vielleicht gibt es verschiedene Märkte, wo so ein effizienter AI-Chip Sinn machen kann, und haben uns dann später erst tatsächlich auch mehr oder weniger durch eine AI-Konferenz in München, die da stattgefunden hatte, dazu entschieden, weil dann haben wir dort eben Leute wie BMW oder Continental kontaktiert, beide wurden ja später auch Investoren, und haben denen gesagt: „Hey, könntet ihr was anfangen mit so einem Chip?“ Und dann waren die sofort extrem interessiert und dann kam da richtig so ein Momentum auf und dann haben wir das quasi mitgenommen.

Sebastian

Was können die denn damit anfangen? Weil du hast es vorhin schon mal gesagt, was so ein Chip rein abstrakt abbildet oder was er an Leistung bringt, aber für den Endnutzer:in, kannst du es da ein Stück weit greifbarer machen?

Gilles Backhus

Also ich glaube, wir kennen das alle so, dass, wenn man mal vielleicht durch einen Autoverleih so ein neueres Auto fährt, die ACC-Funktion zum Beispiel, also Automatic Cruise Control, oder alle möglichen sogenannten ADAS-Funktionen in heutigen sehr modernen Premiumautos lassen ja immer noch so ein wenig zu wünschen übrig. Damals bei der Firmengründung gab es so einen riesigen Hype über L4-, L5-Fahren, also wirklich vollautomatisiertes Fahren. Dadrüber können wir später noch reden. Ich glaube, jetzt haben wir gerade das erste Mal wieder Licht am Horizont, dass auch das möglich wird, aber dazu später vielleicht mehr.

Aber jetzt ganz aktuell geht es erst mal für die großen Firmen darum, bei diesen SAE-Levels an Autonomie sagt man so bis Level L2+, oder L2++ sagt man auch schon manchmal, auf jeden Fall alles unter L3, das heißt alles, wo noch der Fahrer selber rechtlich zur Rechenschaft gezogen werden kann, wenn was passiert, das muss man jetzt hinbekommen – das heißt noch robustere Verkehrsschilderkennung, noch robustere – sorry, ich kenne nur die englischen terms – traffic light detection, dass das noch robuster passiert. Natürlich die ganzen Akteure um einen drumherum, also wo sind Fahrzeuge, wo sind Passanten, wo sind Straßenmarkierungen, dass das erst mal wirklich alles ganz reliable funktioniert.

Im Endeffekt bedeutet das, ich brauche sehr viel Rechenleistung im Auto. Weil zum Beispiel, wenn ich jetzt ein Verkehrsschild sicher erkennen will, dann muss das ja auch schon auf eine gewisse Entfernung erst mal passieren können. Das heißt, ich muss sehr hoch aufgelöste Kamerabilder verarbeiten können. Damit steigt sogar mehr als linear, quasi fast schon quadratisch, kann man sich vorstellen, die Rechenleistung.

Wenn du heute ein Auto kaufst, dann ist es normal, dass diese AI-Algorithmen mit vielleicht 1,4 Megapixeln die Welt beobachten. Das wird jetzt rasant in Richtung 8 oder 12 Megapixel gehen. Und dann hast du halt bis zu zehnmal so viel Rechenaufwand auf einmal. Plus, noch dazu willst du immer größere Modelle laufen lassen. Also es geht ja jetzt schon so weit, dass diese ganzen neuen Transformer-Modelle, die wir jetzt alle von ChatGPT und so kennen, auch ins Auto kommen. Man versucht da einfach Lösungen zu finden oder Firmen wie wir versuchen einfach den großen Firmen zu helfen, viel Rechenleistung bei nicht viel Stromverbrauch und keinen hohen Kosten ins Auto zu bringen.

Noch um auf deine Frage jetzt letztendlich wieder zurückzukommen: Der End-User spürt das dann einfach durch endlich mal bessere, smoothere ADAS-Funktionen, denen du dann wirklich mal vertrauen kannst. Ich glaube, wir alle kennen das: Man vertraut dem bisher nicht so ganz. Man ist da immer noch ein wenig vorsichtig. Selbst wenn man schon hundertmal das ACC im Stau anhatte, denkt man sich immer noch so: „Na ja, es könnte ja was passieren.“ Und sowieso der Weg hin zu, ich kann mal wirklich am Handy texten, während ich mit 150 km/h mich über die Autobahn fahren lasse, das ist immer noch gut weit weg und da versuchen wir einfach mit den großen Firmen zusammen hinzukommen.

Sebastian

Jetzt habe ich das verstanden, dass ihr mehr Rechenleistung hineinbringt, also diese Operation dann eben auch simpler ausführen könnt. Rechenleistung ist in meiner Welt immer noch gleichgesetzt mit Energieverbrauch. Energieverbrauch beim E-Auto, ist ja jetzt auch nicht so von Vorteil, wenn da immer mehr in Anspruch genommen wird, weil dann sinkt die Reichweite. Und da spielt ihr aber auch einen Vorteil euren Marktbegleitern gegenüber aus.

Gilles Backhus

Das haben auch unabhängige Beratungen aus dem Automobilbereich uns bestätigen können, dass wir in sieben Nanometer, das war jetzt die technology note von unserem ersten Chip und in unserer Compute-Klasse, also viele hunderte von Tera-Operationen pro Sekunde, waren wir der energieeffizienteste Chip der Welt, oder sind es immer noch. Aber mittlerweile ist die Welt weitergekommen, jetzt redet man von fünf Nanometern oder sogar drei Nanometern. Das heißt, wir sind da irgendwo die Firma, die es verstanden hat, am energieeffizientesten AI-Berechnungen auszuführen.

Das ist erst mal schön. Und was das bringt, ganz direkt, gerade auch im EV-Bereich, ist: Man hat so die Pi-mal-Daumen-Regel, wenn man 100 Watt einspart im Auto, dann erreicht man ungefähr 15 Meilen, also 23 Kilometer oder so mehr EV-Reichweite. Wenn man sich jetzt anschaut, aktuelle Systeme, also wirklich so state-of-the-art autonomous driving, auch von irgendwelchen Start-ups oder so, die haben momentan keine andere Möglichkeit, als von dem großen grünen Riesen, den ich jetzt nicht beim Namen nennen will, sich den Kofferraum vollzuhauen mit Hardware, und da bist du schnell mal bei einem Kilowatt. Das können wir, ganz ohne zu übertreiben, locker auf 100 Watt herunterbringen – also 100, 120 Watt, irgendwie so was vielleicht, maximal.

Das heißt, du sparst Faktor 8 ein beziehungsweise auch einfach 850 Watt oder so sparst du ein. Dann bist du halt schnell mal wirklich bei 150, 200 Kilometer mehr Reichweite. Das sind natürlich keine Production-Systeme, mit denen ich uns jetzt vergleiche, muss man auch fairerweise sagen. Aber darum geht es ja – diese Systeme können keine Production-Systeme aktuell werden, weil der Stromverbrauch viel zu hoch ist. Und da versuchen wir eben jetzt ganz bald schon, diese ganz tollen AI-Modelle, die ja wirklich sehr beachtliche Dinge mittlerweile können, auch mal dann irgendwann in ein normales Fahrzeug wie einen Audi A4 oder so hineinzubekommen.

Sebastian

Aber dieser Vorteil mit der Reichweitengewinnung, also Energieminimierung, der ist jetzt schon umsetzbar. Und ist das auch ein Thema, wo die Hersteller dann natürlich wahrscheinlich darauf anspringen?

Gilles Backhus

Also ist das aktuell umsetzbar? Wir befinden uns jetzt gerade in der Entwicklung unserer zweiten Chip-Generation und die wird dann jetzt eben bald erst mal als Samples herauskommen und dann kann man die Qualifizierungszyklen mit den Automobilherstellern durchgehen et cetera, also diesen normalen Prozess verfolgen. Und ja, also das Interesse von den großen Firmen ist riesig, sowohl von den OEMs als auch von den Tier-1s. Die versuchen da Lösungen zu finden. Es geht dann noch mal um einige andere Aspekte auch, nicht nur Stromverbrauch. Also zum Beispiel Chiplets sind gerade ganz groß in aller Munde. Da kommt mehr Modularität und Skalierbarkeit ein wenig dazu, auch Kosten im Endeffekt.

Also die Bereitschaft ist sehr groß. Man muss momentan sagen: Stand heute wirklich, also November 2023, gibt es jetzt nichts am Markt frei verfügbar, wo du sagen kannst, das kann ich jetzt sofort in ein Auto bringen und habe jetzt auf einmal die neuesten AI-Modelle laufen, aber einen realistischen Stromverbrauch, den ich verkraften kann. Das gibt es aktuell einfach bisher nicht, und da versuchen wir, eben hinzukommen.

Sebastian

Du hast vorhin erwähnt, dass unter anderem Continental und BMW bei euch investiert ist, hast aber auch gesagt, dass andere Automobilhersteller ebenso Interesse daran haben. Schließt das eine nicht das andere aus, oder wie ist das aufgestellt?

Gilles Backhus

Nein, das schließt das eigentlich nicht aus. Sogar letzte Woche erst wieder waren wir bei einem großen OEM mit einem Tier-1 zusammen und da gab es sogar den einen Moment, wo derjenige vom OEM, von der Marke, gesagt hat: „Hey, wenn ihr das, was wir hier gerade besprechen, noch an einige andere, komplett andere Automarken auch verkauft – ich finde das gut, weil dann profitiere ich einfach von einer größeren Skalierbarkeit“, und so. Also man denkt das immer, das sind absolute Erzfeinde. Und ja, natürlich, wir haben jetzt zum Beispiel Continental und Bosch drin – da gibt es auch ein paar Artikel in der Presse, wo drinsteht, die Erzfeinde haben das erste Mal zusammen in ein Start-up investiert. Am Ende sind das ganz rationale Investoren. Also das ist dann immer so ein Venture-Arm von diesen Unternehmen, die schauen einfach: Ist das eine Technologie, die eine Zukunft hat? Kann da ein Return of Investment für uns passieren?

Also viele von diesen scheinbar sehr Corporate-Venture-Capitalist-Firmen sind am Ende dann doch auch irgendwo primär finanzielle Investoren. Und nur weil jetzt etwa der BMW i Ventures bei uns investiert hat, heißt das noch lange nicht, dass wir jetzt unbedingt auch mit der BMW Business Unit was am Hut haben müssen. Natürlich sind die Wege dann deutlich leichter und da gibt es dann viele warme introductions und so, aber nein, also das blockiert sich jetzt nicht so sehr gegenseitig.

Sebastian

Du hast ja auch schon passend ausgeführt, dass ebendiese Skalierbarkeit ja dann auch auf der anderen Seite wahrscheinlich noch mal einen größeren Hebel auf die Kosten haben wird, und das ist – ich komme selbst aus der Automobilindustrie – ja auch immer schlussendlich der Punkt, der es dann zum Ausschlag geben kann, dass man dann dem doch sich breiter öffnet.

Gilles Backhus

Genau, voll. Ich habe ja vorhin schon Chiplets erwähnt. Also ganz kurz: Chiplets, was ist das? Da ist die Idee, normalerweise ist es ja so, ich habe einen sogenannten Chip-Die, also das, was man von diesen shiny runden wafer disks kennt. Die werden dann eben zerschnitten und dann kommt das in so ein package und dann ist das wirklich das, was die meisten Leute als Chip verstehen, also dieses Gehäuse quasi. Und bei Chiplets geht es darum, ich habe mehrere Dies von verschiedenen Herstellern. Also das könnte dann etwa ein Prozessor-Die von Firma X sein und dann von uns zum Beispiel ein AI-Chip-Die und dann gibt es von einem großen Zulieferer vielleicht noch mal so einen Dia in der Mitte, der alles so ein wenig connected, und dann gibt es noch ein paar Speicherbausteine – und das wird alles dann unter einem Dach, unter einem package zusammengefasst, also deutlich modularer.

Das Coole ist dann auch, man kann dann sagen, so Cutting-Edge-Sachen wie das, was wir machen, das macht man dann vielleicht wirklich ganz aggressiv in drei Nanometer, also etwas höhere Kosten, während andere Sachen, vielleicht einfach nur, um alle Kameras anzubinden, oder so ein Connector-Die, der ist dann vielleicht sogar in 16 Nanometer oder so was. Und dadurch spart man Kosten ein.

Aber das kannst du nur realisieren, wenn du wirklich jetzt erst mal große Stückzahlen erreichst. Ansonsten lohnt sich es nicht, diese neue Technologie zu entwickeln und in den Markt zu bringen. Und da reden wir wirklich von einer Stückzahl, die so groß ist, dass es schwierig wird für einen OEM, also, selbst wenn das die größten sind wie Stellantis oder Toyota oder VW, dass das schon fast zu wenig ist, wenn nur die sich darauf committen würden. Das heißt, da redet man wirklich davon, dass dieser große Skaleneffekt erst mal eintreten muss, um eine Technologie zu ermöglichen. Wir sind allerdings guter Dinge, dass das passieren wird, weil die Vorteile liegen einfach auf der Hand, und am Ende geht es dann doch auch immer wieder, auch wenn das Volumen vielleicht am Anfang erst mal nicht ganz so hoch ist. Genau, das kann ich dazu sagen.

Sebastian

Jetzt hast du vorhin auch noch das Thema autonomes Fahren mal kurz angerissen, L4, L5, also Level 4, Level 5. Magst du uns darauf noch einen Ausblick geben, was ihr damit auch unterstützen könnt? Das ist ja auch ein Thema, was bei den Automobilherstellern immer wieder aufkommt. Und so wie du gesagt hast, jetzt aktuell auch, dass wir da auch noch einen Blick drauf haben.

Gilles Backhus

Also das ist für mich auch mit die spannendste Entwicklung gerade, muss ich sagen. Als wir die Firma vor sechs Jahren angefangen haben, war das in aller Munde – vollautonomes Fahren, Tesla hat so jedes halbe Jahr versprochen, dass es jetzt in ein paar Monaten auch soweit ist. Und irgendwann sind dann alle so ein wenig nach der Party aufgewacht und man hat sich vom Rausch erholt und realisiert: Hm, na ja, vielleicht dauert das alles doch noch etwas lange. Und dann war auch erst mal wirklich so ein Winter an Euphorie, muss man sagen.

Seit Anfang des Jahres, mit diesem advent von diesen großen Transformer-Modellen, die jetzt auch sehr schnell dann im Vision-Bereich, also wenn man wirklich erst mal auf Bilderdaten und so basierend was erkennen will oder auch sogenanntes Embodiment-AI, oder da gibt es auch andere Begriffe, aber so quasi end-to-end autonomous driving: Also ich habe wirklich ein AI-Modell, am Anfang kommen die Kamerabilder rein und am Ende kommt wirklich der Lenkwinkel und die Gaspedalstellung raus. Diese Endvision, die man da immer hat von autonomous driving, das ist jetzt alles auf einmal möglich, weil man jetzt endlich mal eine Art von AI gefunden hat, die immer weiter, weiter und weiter skaliert.

Die alten AI-Modelle haben da ziemlich schnell so ein Plateau erreicht. Du konntest die mit noch mehr Daten füttern und die haben einfach irgendwann nicht noch mehr geschafft. Wir reden da zum Beispiel auch mit manchen Start-ups, die sehr state-of-the-art sind, die wirklich ihren Kofferraum voll haben mit diesen riesigen Grafikkarten. Was die demonstrieren können, ist extrem beachtlich. Aber die haben halt eben Modelle, die vielleicht mal schnell 10 Milliarden Parameter haben. Also das ist ein Zehntel so groß wie ChatGPT, so ungefähr. Gut, das hört sich jetzt vielleicht erst mal klein an für den Laien, aber das ist tatsächlich riesig. Das ist nämlich Faktor 500 größer als das, was momentan in einem Premium-Auto herumfährt. Und wo soll jetzt diese 500-fache Menge an Speicher und Rechenleistung auf einmal herkommen?

Das heißt, wenn man das jetzt lösen kann, und unsere next gen wird das lösen können, also diese Modelle werden darauf laufen können, und das immer noch in diesen ein bisschen mehr als 100 Watt, die ich vorher erwähnt hatte, dann kannst du auf einmal autonomous drive capability ermöglichen, wo es dann wirklich mal anfängt mit L4, L5. Und dann redet man natürlich auf einmal wieder von einem ganz anderen Markt, der auch erschlossen wird. Auf einmal ist der Taxifahrer dann eben wirklich ersetzbar durch einen Computer im Endeffekt und wir werden auf einmal ganz andere Formate von Mobilität vielleicht auch haben. Vielleicht wird individuelle Mobilität wieder mehr werden. Genau, solche Sachen.

Sebastian

Sehr spannend, dass ihr so was auch unterstützt. Und dann sehen wir vielleicht das Robo-Taxi ja doch noch irgendwann mal auf der Straße, wenn sie auf eure Chips setzen.

Gilles Backhus

Ich denke schon. Also die Euphorie ist gerade sehr groß und man sieht das erste Mal einen Weg nach vorne. In Anführungsstrichen, ganz salopp gesagt, wir müssen es jetzt nur noch fertig entwickeln und dann wird das auch endlich mal möglich werden.

Sebastian

Dann wollen wir dich da auch wieder an deine Arbeit gehen lassen. Dir vielen Dank für die Einblicke, die wir jetzt bekommen haben, und vielen Dank für deine Zeit.

Gilles Backhus

Danke, Sebastian.

Der Beitrag Recogni: KI-Chips erobern Autoindustrie erschien zuerst auf Elektroauto-News.net.

Avatar


Avatar

Diese Seite verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Mit der weiteren Verwendung stimmst du dem zu. Datenschutzerklärung