Aber diese Logik ändert sich gerade. Mit der richtigen Softwarearchitektur kann das Auto zu einer Plattform für kontinuierliche Verbesserungen werden – zu einem Produkt, das sich im Laufe der Zeit weiterentwickelt, verfeinert und optimiert, selbst nachdem es das Werk verlassen hat.
Dieser Wandel erfordert eine neue Denkweise: in Bezug auf Produkte, Organisationen und Geschäftsmodelle.

Abschließende Gedanken
Bei der Umstellung auf softwaredefinierte Fahrzeuge geht es nicht nur um Technologie, sondern auch um Architektur, Systemdenken und Zusammenarbeit. Um erfolgreich zu sein, müssen Unternehmen in der Lage sein, sowohl mit hoher technischer Komplexität als auch mit weitreichenden geschäftlichen Auswirkungen umzugehen.
Und genau an dieser Schnittstelle – zwischen Systemarchitektur, agiler Entwicklung und strategischen Technologiekompetenzen – machen starke Entwicklungspartner den Unterschied.
Möchten Sie wissen, wie HiQ Sie auf diesem Weg unterstützen kann?
Lassen Sie uns darüber sprechen – wir erzählen Ihnen gerne mehr.
Kontakt
Region
Digitale Barrierefreiheit bedeutet, dass alle Menschen – auch Menschen mit Behinderungen – digitale Produkte und Dienstleistungen uneingeschränkt nutzen können. Laut der UN-Behindertenrechtskonvention ist Barrierefreiheit ein grundlegendes Menschenrecht. Dennoch sind viele digitale Lösungen heute nicht barrierefrei und stellen somit Hindernisse für einen erheblichen Teil der Bevölkerung dar.
Um das zu ändern, tritt zum 28. Juni 2025 das Barrierefreiheitsstärkungsgesetz in Kraft, das die europäische Richtlinie zur Barrierefreiheit European Accessibility Act (EAA) umsetzt. Ab diesem Zeitpunkt müssen viele Unternehmen und Organisationen neue Anforderungen an die Barrierefreiheit erfüllen, um ihre Produkte und Dienstleistungen weiterhin innerhalb der EU anbieten zu dürfen.

Ein inklusives digitales Erlebnis ist mehr als nur gesetzliche Pflicht – es schafft Mehrwert, stärkt die Marke eines Unternehmens und öffnet Firmenangebote für ein breiteres Publikum.
Indem Sie diese Schritte umsetzen, schaffen Sie ein inklusives digitales Umfeld, senken rechtliche Risiken und stärken Ihre Wettbewerbsfähigkeit.
Denn Barrierefreiheit verbessert die Nutzererfahrung für alle – nicht nur für Menschen mit Behinderungen. Unternehmen, die barrierefreie Lösungen implementieren, profitieren häufig von positiven Effekten auf SEO, Kundenbindung und Conversion Rates. Zudem lassen sich rechtliche Risiken und spätere Kosten für nachträgliche Anpassungen reduzieren.
Und denken Sie daran: Barrierefreiheit beginnt nicht am Ende eines Projekts, sondern mit der Art und Weise, wie Sie Ihre digitalen Produkte von Anfang an gestalten. Unsere agilen Softwareentwicklungs-Services bei HiQ helfen Ihnen dabei. Jetzt starten – Juli 2025 steht vor der Tür.
Kontakt
Region
Der Begriff Vibe Coding, kürzlich vom ehemaligen OpenAI-CTO Andrej Karpathy geprägt, beschreibt einen extrem KI-gesteuerten Coding-Stil, bei dem Entwickler:innen die meiste Arbeit der KI überlassen und in natürlicher Sprache mit ihr interagieren. Statt manuell nach der Stelle zu suchen, an welcher der Abstand einer Seitenleiste angepasst werden muss, sagt man einfach: „Mach das Padding halb so groß“ – und die KI (künstliche Intelligenz) übernimmt den Rest. Änderungen am Code werden ohne Review übernommen, Fehler durch Trial-and-Error beseitigt, und der Code wächst in einer Geschwindigkeit, die das menschliche Verständnis zunehmend überholt.
Das wirft eine zentrale Frage auf: Ist Vibe Coding ein disruptiver Ansatz, der die Art zu entwickeln grundlegend verändern kann, oder doch nur ein cleverer Shortcut für Prototyping-Szenarien? Und wie verhält es sich zum etablierten DevOps-Prinzip?
Ist Vibe Coding ein disruptiver Ansatz, der die Art zu entwickeln grundlegend verändern kann, oder doch nur ein cleverer Shortcut fürs Prototyping?
Zukünftig müssen Entwickler:innen zwischen KI-gesteuerter Geschwindigkeit und DevOps-Präzision navigieren können – und dabei die richtige Balance zwischen Intuition und Kontrolle finden.
Fazit
KI-getriebene Methoden wie Vibe Coding sind sehr spannend und haben das Potenzial, schnelle Innovation zu revolutionieren. Aber sie ersetzen nicht die Notwendigkeit strukturierter Prozesse für Produktion und Skalierbarkeit. Zukünftig müssen Entwickler:innen zwischen KI-gesteuerter Geschwindigkeit und DevOps-Präzision navigieren können – und dabei die richtige Balance zwischen Intuition und Kontrolle finden. KI verändert, wie wir Software entwickeln, aber nicht, warum wir sie entwickeln!
Sie wollen Software entwickeln – smart, schnell und bereit für die Zukunft?
Erleben Sie, wie wir aus starken Ideen skalierbare Lösungen schaffen – mit agiler Softwareentwicklung, die wirklich funktioniert. Zu den HiQ Development-Services!
Kontakt
Region
Cloud-Infrastruktur
Damit Microservices klein genug bleiben, um diesen Namen zu verdienen, muss es einfach sein, neue Microservices zu erstellen. Zusätzlich zu der Code-Basis ist dafür einige Infrastruktur notwendig, die sich über verschiedene Services hinweg im Prinzip wenig unterscheidet.
Es ist daher sinnvoll, diese wiederkehrenden Elemente von einem dedizierten Infrastruktur-Team verwalten und warten zu lassen. Dazu gehören folgende Elemente:
Bereitstellung von Rechenressourcen
Um Ressourcen gut nutzen zu können, hat sich im letzten Jahrzehnt Container-Technologie als gewinnbringendes Konzept herausgestellt. Hierbei werden einzelne Prozesse durch Linux-Kernel-Features voneinander abgekapselt, was eine gemeinsame Nutzung von Rechenressourcen durch voneinander unabhängige Prozesse erleichtert. Wesentlich für die Nutzung von Container-Technologie ist, dass einzelne Container jederzeit (etwa auf einem anderen Rechner) neu gestartet werden können, da so eine orchestrierte hohe Auslastung der verfügbaren Rechenzeit erreicht wird. Der de-facto-Standard für die Orchestrierung von Containern ist das Open-Source-System Kubernetes, das bei guter Konfiguration eine Schnittstelle für Entwickler zum einfachen Deployment von Containern (und anderen Ressourcen) bereitstellt.
Da eine gute Konfiguration eines Kubernetes-Clusters eine relativ komplexe Aufgabe ist, sollte hierfür ein spezialisiertes Team etabliert werden, dass sich unter anderem mit der Netzwerkarchitektur, Kommunikation zwischen Containern, Secret Management und grundlegendem Logging und Monitoring in Zusammenhang mit Kubernetes beschäftigt.
Netzwerk-Konnektivität
Die innere Einfachheit von Microservices wird dadurch erkauft, dass viel Komplexität in die Kommunikation zwischen Services verlagert wird. Dafür ist es wichtig, dass Microservices eine Netzwerkverbindung zueinander und in Richtung Internet aufbauen können. Die Verbindung sollte automatisch durch mTLS abgesichert werden. Diese Automatisierung kann am besten auch durch ein zentrales Infrastruktur-Team gewährleistet werden.
Auch grundlegende Allow-Lists für den Zugriff auf Services sollten durch die Microservice-Teams einfach eingerichtet werden können, und gegebenenfalls sollten aus Compliance-Gründen manche Netzwerkregeln durch das Infrastruktur-Team verbindlich festgesetzt werden. Die Kommunikation zwischen Microservices ist erheblich leichter zu erreichen, wenn die Infrastruktur bei einem einzelnen Cloud-Provider gehostet wird.
Persistenz
Microservice-Container sollten jederzeit neu gestartet werden können, ohne Daten zu verlieren. Das impliziert, dass persistente Datenhaltung außerhalb der Microservices stattfinden muss, typischerweise in Datenbanken oder in persistenten Volumes. Neben allgemeinen Schwierigkeiten wie Authentifizierung und Autorisierung, sowie der Konnektivität zu den Datenhaltungssystemen bestehen hier spezialisierte Herausforderungen wie die Erstellung von Daten-Backups und Snapshots, um die Wiederherstellbarkeit persistenter Daten gewährleisten zu können.
Für verschiedene Bedürfnisse sollten verschiedene Typen von Datenbanken zur Verfügung gestellt werden, aus denen Microservice-Teams auswählen können: etwa eine SQL-Datenbank, eine Dokumentendatenbank und ein Cache-System. Das ist wichtig, um die Technologieoffenheit bei der Umsetzung von Microservices zu gewährleisten, sodass die Microservice-Teams die beste Technologie für ihren Anwendungsfall auswählen können.
Die Bereitstellung von Datenbanken oder Volumes sollte möglichst automatisiert erfolgen, wofür eine enge Zusammenarbeit mit dem Kubernetes-Team notwendig ist.
Wir planen Ihre Microservice-Architektur. Und bieten noch so viel mehr im Bereich agile Softwareentwicklung. Überzeugen Sie sich selbst.
Logging und Monitoring
Um Fehlerfälle reproduzieren und beheben zu können, ist es entscheidend, dass es einen einfachen Weg gibt, um auf die produzierten Logs der einzelnen Microservices zugreifen zu können. Hierfür ist der Industriestandard ein Elastic Stack, der bestenfalls von einem zentralen Team gehosted und gemanaged wird, damit die Microservice-Teams sich nicht um das Setup von Logging-Infrastruktur kümmern müssen. Auch andere Lösungen als ein Elastic Stack sind hier denkbar, doch eine Standardlösung sollte zentral vorgegeben werden, und auch das Log-Format (beispielsweise JSON mit bestimmten vorgegebenen Feldern) sollte über Microservices hinweg standardisiert sein.
Logs müssen auch über mehrere Services hinweg miteinander verknüpft werden können, insbesondere auch über REST-Requests oder asynchrones Messaging hinweg. Hierfür ist Request Tracing via OpenTelemetry geeignet, indem die Traces über Requests hinweg propagiert werden, beispielsweise mit Hilfe der B3-Spezifikation. Zusätzlich können die so entstehenden Traces natürlich dafür genutzt werden, Bottlenecks bei Requests zu erkennen und zu beheben.
Auch ein Monitoring-/Alerting-Stack (typischerweise mit Hilfe von Prometheus und Grafana) sollte zentral maintained sein und mit standardisierten Metriken sowie individuell konfigurierbaren Metriken gefüllt werden können. Alerts sollten individuell durch die Microservice-Teams einstellbar sein.
API-Design
Je nach Microservice können die Anforderungen an die APIs zur Kommunikation mit dem Microservice sehr unterschiedlich sein. Dennoch kann es sinnvoll sein, gemeinsame Anforderungen an die API-Struktur (beispielsweise HATEOAS oder gRPC) zu stellen, die nur in begründeten Ausnahmefällen nicht berücksichtigt werden. Für HTTP-APIs kann OpenAPI eine gute Lösung für die Dokumentation darstellen.
Gegebenenfalls kann man sich dafür entscheiden, die Bereitstellung von OpenAPI-Spezifikationen für Microservices verpflichtend zu gestalten, sodass sich die Entwickler von Clients auf die Existenz dieser Spezifikationen verlassen können. In jedem Fall sollte ein gemeinsames Schema für die Dokumentation von APIs (inklusive Fehlerfällen) geschaffen werden, damit es einfacher wird, relevante Dokumentation zu finden.
Messaging
Asynchrone Kommunikation über Messaging-Systeme kann wesentlich dabei helfen, das Gesamtsystem resilient zu gestalten. Die durch die Asynchronität entstehende temporäre Inkonsistenz bei der Datenhaltung wird bewusst in Kauf genommen („Eventual Consistency“), um schnellere Requests und eine Entkopplung verschiedener Microservices zu erreichen.
Damit Kommunikation über Messaging zwischen verschiedenen Microservices funktioniert, sollte das Messaging-System selbst von einem zentralen Team bereitgestellt und verwaltet werden. Das Format der Messages sollte wie bei den APIs mithilfe eines gemeinsamen Schemas dokumentiert werden.
Authentifizierung und Autorisierung
Authentifizierung und Autorisierung sind zentrale Aufgaben, die nicht von einzelnen Microservice-Teams erledigt werden können. Hierfür sollte eine zentrale Lösung, beispielsweise basierend auf OpenID, bereitgestellt werden.
Zusammenfassung
Eine Microservice-Architektur kann gerade für komplexe Systeme eine gute Lösung sein, um schnell Verbesserungen am System sowie neue Features zu implementieren. Dadurch entstehen allerdings Abhängigkeiten zwischen Microservices und somit auch zwischen den Microservice-Teams.
Die hier beschriebenen Querschnittskonzepte helfen dabei, Konsistenz, Sicherheit und Effizienz in einem Microservice-Umfeld sicherzustellen.
Kontakt
Region
Sie möchten mehr erfahren oder haben Sie eine Frage? Dann treten Sie mit uns in Kontakt!