So automatisieren Sie repetitive Aufgaben in Jira mit LLMs

Effizienzsteigerung mit KI

Durch die Kombination von LLMs und Jira Automation können Sie nicht nur Zeit sparen, sondern auch die Effizienz und Genauigkeit Ihrer Unternehmensprozesse steigern. Wir erklären, wie es geht.

In vielen modernen Unternehmen sind Ticketsysteme unerlässlich, um Arbeitsprozesse zu organisieren und zu verfolgen. Dennoch kommen Anfragen, Probleme oder Aufgaben häufig noch per E-Mail bei den betreffenden Abteilungen an.

Herausforderung: Ressourcenverbrauch durch repetitive Klassifizierungsarbeit

Sobald entsprechende E-Mails im Unternehmen eingehen,  werden sie meist manuell verarbeitet und klassifiziert, bevor sie in Ticketsystemen wie Jira von Atlassian bearbeitet werden können. Dieser Prozess bindet wertvolle Personalressourcen, die effizienter eingesetzt werden könnten, beispielsweise für strategische Arbeiten.

Für die Kategorisierung der Vorgänge sowie die sinnvolle Befüllung der Felder im Ticketsystem ist ein Verständnis des Kontextes erforderlich. Bisher gab es keine technischen Möglichkeiten, diese Abläufe zu automatisieren. Durch die Weiterentwicklung von Künstlicher Intelligenz (KI) können diese Anwendungsfälle nun neu betrachtet werden.

Lösung: KI-gestützte Automatisierung mit Jira Automation in Verbindung mit LLMs

Large Language Models (LLMs) sind eine spezielle Art von KI, die darauf trainiert werden, menschliche Sprache zu verstehen, zu verarbeiten und zu generieren. Gerade die Fähigkeit,  Muster und Zusammenhänge im Kontext zu erkennen, macht diese Modelle für den beschriebenen Kontext so spannend: Mit der Integration von LLMs in Jira Automation können wiederkehrende Aufgaben nicht nur automatisiert, sondern auch intelligenter gestaltet werden.

Ein spannender Use Case ist die Verarbeitung von eingehenden Security-Updates. Dank der Leistungsfähigkeit von LLMs wird der Kontext dieser Updates automatisch erkannt und relevante Custom Fields in Jira werden entsprechend befüllt.

Stellen Sie sich vor, das IT-Security-Team erhält regelmäßig sicherheitskritische Informationen zu den im Unternehmen genutzten Systemen. Bisher sieht ein entsprechender Prozess zur Verarbeitung dieser Meldungen in Jira-Tickets wie folgt aus: Die Meldungen kommen über Schnittstellen / die Anbindung eines E-Mail-Postfachs in Jira an, werden dann von einem 1st-Level Team klassifiziert und die Informationen schließlich manuell in die entsprechenden Jira-Felder übertragen.

Durch die Verwendung eines LLMs in Verbindung mit Jira Automation ist es beispielsweise möglich, automatisch zu erkennen, welche Systeme betroffen sind und zu überprüfen, ob sie im Unternehmen vorhanden sind. Darüber hinaus können Priorisierungen vorgenommen werden und wichtige Informationen wie der Betroffenenkreis aus dem Kontext abgeleitet werden. Eine automatisierte Zuweisung zu den entsprechenden Teams ist ebenfalls möglich.

Diese Lösung reduziert den manuellen Aufwand erheblich und stellt sicher, dass keine relevanten Informationen übersehen werden.

Exkurs: Datenschutz und Sicherheit mit lokal gehosteten LLMs

Ein zentrales Anliegen vieler Unternehmen im Zusammenhang mit dem Einsatz von KI ist der Datenschutz. Besonders in Branchen, die mit sensiblen Daten arbeiten, etwa im Gesundheitswesen, im Finanzsektor oder bei sicherheitskritischen IT-Systemen, bestehen häufig Bedenken, sensible Informationen an externe, cloud-basierte KI-Systeme weiterzugeben, deren Sitz in den USA ist. Die Sorge um die Einhaltung strenger Datenschutzrichtlinien wie der DSGVO ist berechtigt, und viele Unternehmen entscheiden sich daher gegen den Einsatz von KI, um mögliche Datenschutzverletzungen zu vermeiden.

Hier bietet der Einsatz von lokal gehosteten LLMs eine ideale Lösung. Durch die Implementierung solcher Modelle on-premise oder in Rechenzentren innerhalb der EU können Unternehmen die volle Kontrolle über ihre Daten behalten und sicherstellen, dass diese nicht an externe Dienstleister oder Länder außerhalb Europas übertragen werden. Europäische Cloud-Anbieter und lokale Rechenzentren ermöglichen es, den gesamten Datenfluss und die Verarbeitung innerhalb der EU zu halten, wodurch die strengen Anforderungen der DSGVO erfüllt werden können.

Ein weiterer Vorteil von lokal gehosteten LLMs ist die individuelle Anpassung an die spezifischen Anforderungen eines Unternehmens. Sensible Daten wie E-Mail-Inhalte, Kundeninformationen oder sicherheitskritische Meldungen können sicher verarbeitet werden, ohne dass diese die geschützte IT-Umgebung des Unternehmens verlassen. Darüber hinaus können durch regelmäßige Sicherheitsupdates und interne Audits Sicherheitslücken proaktiv erkannt und geschlossen werden.

Für Unternehmen, die nach einer sicherheitskonformen und datenschutzfreundlichen KI-Lösung suchen, bietet die Kombination von Jira Automation mit lokal gehosteten LLMs den perfekten Ansatz, um von den Vorteilen der Automatisierung zu profitieren, ohne Kompromisse beim Datenschutz eingehen zu müssen. Gerne unterstützen wir Sie dabei, ein für Ihr Unternehmen passendes lokales LLM auszuwählen und zu nutzen.

Mehrwert: Effizienzsteigerung durch intelligente Automatisierung

Durch den Einsatz von LLMs und Jira Automation können Unternehmen nicht nur Zeit und Ressourcen sparen, sondern auch die Genauigkeit und Konsistenz der Verarbeitung sicherstellen. Wichtige Aspekte werden zuverlässig erkannt und die relevanten Felder in Jira automatisch befüllt. So kann das Team sich auf die wirklich wichtigen Aufgaben konzentrieren, während repetitive Arbeiten intelligent und effizient durch das System abgedeckt werden.

KI für Jira Automations bietet damit insbesondere die folgenden Vorteile:

  • Automatisierte Klassifizierung der eingehenden Mails
  • Auslesen von Kontext-Informationen & Prüfung mithilfe von Assets
  • Mitarbeitende können sich auf andere Kernaufgaben oder um Problemlösungen kümmern, statt viel Zeit auf die manuelle Arbeit der Sichtung eingehender Mails zu verschwenden
  • Schnelleres Erkennen von Sicherheitslücken und damit auch weniger Ausfallrisiko

Sie möchten wissen, ob und wie Sie KI in Jira / Jira Service Management einsetzen können, um Ihre Prozesse noch effizienter zu gestalten?

Als ESM-Experten und Atlassian Platinum Solution Partner beantworten wir Ihre Fragen. 
Mehr erfahren!

Ausblick: Zukunft der KI-gestützten Automatisierung

Die Integration von LLMs in Jira Automation bietet ein enormes Potenzial für eine ganzheitliche Servicebereitstellung im Rahmen von Enterprise Service Management mit reduziertem Mehraufwand. Zukünftig könnte der Einsatz von KI noch weiter optimiert werden, indem LLMs lokal betrieben werden, um sensible Daten besser zu schützen. 

Darüber hinaus lassen sich auch Integrationen mit anderen Systemen, wie beispielsweise der Automationsplattform Frends, realisieren, um ein noch nahtloseres Workflow-Management zu ermöglichen. Auch der Einsatz von Atlassian Forge für eine tiefere Integration, etwa zur Berücksichtigung von Anhängen in eingehenden E-Mails, eröffnet spannende Möglichkeiten.

Fazit: Ein Schritt in die Zukunft der Automatisierung

Die Kombination aus KI und den Automatisierungsmöglichkeiten in Anwendungen wie Jira eröffnet Unternehmen ganz neue Wege, Prozesse zu optimieren und wertvolle Ressourcen freizusetzen.

Kontakt

Region

Sie möchten mehr erfahren? Unsere Expert:innen beraten Sie gerne.

Ein Game-Changer in der Open-Source-KI

Meta hat gerade eine Bombe in der KI-Welt platzen lassen: die Veröffentlichung von Llama 3.1. Und das ist ein echter Knaller! Wir erklären, warum uns das so begeistert.

Das Kraftpaket 405B

Llama 3.1 405B ist ein bahnbrechendes Modell, das als erstes KI-Modell mit Open Weight mit der Leistung von Closed-Source-Giganten wie GPT-4 und Claude 3.5 Sonnet mithalten kann. Mit dieser Entwicklung wird die Kluft zwischen offenen und geschlossenen Modellen deutlich verringert und der Zugang zu modernsten KI-Funktionen demokratisiert. Die Offenheit von Llama 3.1 ermöglicht es der Community, das Modell selbst zu verfeinern und anzupassen, was eine Welle von spezialisierten, leistungsstarken Modellen auslösen könnte, die auf verschiedene Bedürfnisse zugeschnitten sind.

Zugänglich für alle

Das 8B-Modell von Llama 3.1 stellt einen großen Fortschritt für Hardware in Verbraucherqualität dar. Es übertrifft die Leistung von GPT 3.5 bei vielen Benchmarks und kann gleichzeitig lokal und kostenlos betrieben werden. Dieser Fortschritt ermöglicht es Entwicklern und Forschern, auf dem neuesten Stand der Technik zu sein, und gibt ihnen die Möglichkeit, Innovationen zu entwickeln, ohne eine teure Infrastruktur zu benötigen.

Wichtige Verbesserungen

Llama 3.1 enthält mehrere wichtige Verbesserungen:

  • 128K Kontext Länge für alle Modelle: Dies ermöglicht eine bessere Verarbeitung längerer Eingaben, wodurch komplexere Aufgaben und längere Unterhaltungen möglich sind.
  • Mehrsprachige Unterstützung für acht Sprachen: Dies erweitert die Verwendbarkeit des Modells in verschiedenen sprachlichen Kontexten und macht es vielseitiger und umfassender einsetzbar.
  • Verbesserte Fähigkeiten zur Argumentation und zum Einsatz von Werkzeugen: Durch diese Anpassung ist das Modell besser in der Lage, logische Schlussfolgerungen zu ziehen und sogar externe Tools effektiv zu nutzen.
  • Verbesserte Befolgung von Anweisungen und Chat-Leistung: Das Modell versteht jetzt Anweisungen besser und führt sie aus, was zu genaueren und kohärenten Antworten in Chat-Anwendungen führt.

Was dies für die Zukunft bedeutet

Die Veröffentlichung von Llama 3.1, insbesondere des 405B-Modells, stellt einen wichtigen Meilenstein in der Open-Source-KI dar. Sie verspricht, Innovationen zu beschleunigen, neue Anwendungen zu ermöglichen und die Grenzen dessen, was mit lokal betriebenen Modellen möglich ist, zu erweitern. Wenn sich dieser Trend fortsetzt, können wir davon ausgehen, dass in naher Zukunft noch leistungsfähigere und leichter zugängliche KI-Tools auf den Markt kommen werden.

Stay tuned, wenn die Community beginnt, diese bahnbrechenden Modelle zu erforschen und auszubauen!

Sie wollen mehr über Künstliche Intelligenz und deren Modelle lernen? Dann ist unsere KI Schulung genau das Richtige für Sie!

Hier finden Sie weitere Informationen.

Kontakt

Region

Sebastian Kouba

Sebastian treibt mit seiner Expertise in generativer KI unsere In-House AI-Innovation voran. Wenn er nicht bei der Arbeit ist, lässt er seine Jugend auf dem Beachvolleyballfeld wieder aufleben oder bereitet den perfekten Cappuccino zu.

Die Zukunft von Machine Learning Operations

Mit dem rasanten Wachstum des maschinellen Lernens steigt die Notwendigkeit, ML-Modelle effizient zu verwalten und zu skalieren. MLOps bietet dafür die erforderlichen Tools und Prozesse – von der Datenerfassung über das Modelltraining bis hin zur Bereitstellung und Überwachung. Wir erklären, warum genau MLOps so wichtig ist.

Das maschinelle Lernen (ML) hat in den letzten Jahren ein explosionsartiges Wachstum erlebt. Da Unternehmen zunehmend ML-Modelle einsetzen, um den unternehmerischen Mehrwert zu steigern, ist der Bedarf an robusten Verfahren für den Betrieb von maschinellem Lernen (Machine Learning Operations, MLOps) von größter Bedeutung. MLOps umfassen die Tools und Prozesse, die für eine effiziente Handhabung des gesamten Lebenszyklus des Maschinellen Lernens erforderlich sind: von der Datenerfassung, der Datenverarbeitung und dem Modelltraining bis hin zur Bereitstellung, Überwachung und Steuerung von Modellen.

Im Folgenden werfen wir einen Blick in die spannende Zukunft von MLOps. Wir betrachten aufkommende Trends, die die technische Landschaft umgestalten werden, und beleuchten die Herausforderungen, denen sich Unternehmen stellen müssen, um erfolgreiche Implementierungen von Maschinellem Lernen sicherzustellen.

Was ist maschinelles Lernen?
Maschinelles Lernen ist eine Form der künstlichen Intelligenz (KI), die es Computern ermöglicht, ohne ausdrückliche Programmierung zu lernen. Durch die Analyse von Daten und den Einsatz statistischer Verfahren können Maschinen Muster erkennen und ihre Leistung bei bestimmten Aufgaben verbessern. Diese Technologie findet in verschiedenen Bereichen Anwendung, von der Spam-Filterung bis zur Gesichtserkennungssoftware. Sie umfasst auch den Teilbereich des Deep Learning, der als Grundlage für die kürzlich entwickelten Large Language Models (LLMs) wie ChatGPT dient.

Trends aufgreifen: Ein Blick in die Zukunft von MLOps

Die Systemlandschaft für MLOps entwickelt sich ständig weiter und es entstehen neue Technologien und Methoden, um die Komplexität der Verwaltung von ML-Modellen in der Produktion zu bewältigen. Nachstehend finden Sie einige wichtige Trends, die die Zukunft von MLOps prägen:

  • Cloud-Native MLOps: Cloud Computing bietet eine skalierbare, kostengünstige Plattform für die Verwaltung von ML-Workloads. Cloud-basierte MLOps-End-to-End-Plattformen verschlanken den gesamten ML-Lifecycle, von der Datenspeicherung und den Rechenressourcen bis zum Modelltraining und der Bereitstellung. So können Unternehmen die Elastizität der Cloud nutzen, um schwankende Arbeitslasten zu bewältigen und effizient mit verschiedenen Modellen zu experimentieren.

    Beispiel für eine kommerzielle End-to-end-Plattform im Bereich MLOps ist Amazon SageMaker, eine cloudbasierte ML-Plattform zum Entwickeln, Trainieren, und zur Bereitstellung von ML-Modellen. Kubeflow fällt ebenfalls in die Kategorie dieser Plattformen, ist jedoch im Gegensatz zu Amazon SageMaker open-source und kann somit kostenlos benutzt werden.
  • Automatisierte ML-Pipelines: Die Automatisierung sich wiederholender Aufgaben innerhalb des ML-Lebenszyklus, wie z. B. Dateneingabe, Datenvorverarbeitung, Feature Engineering und Modellauswahl, kann die Effizienz erheblich steigern und menschliche Fehler reduzieren. Automatisierte ML-Pipelines nutzen Tools wie AutoML (Automated Machine Learning), um verschiedene Phasen der Modellentwicklung zu automatisieren, sodass sich Data Scientists auf strategische Aufgaben wie die Entwicklung innovativer Modellarchitekturen und die Identifizierung neuartiger geschäftlicher Anwendungsfälle konzentrieren können.

    Beispielsweise bieten Azure mit Azure Automated Machine Learning, Amazon Web Services (AWS) mit AWS AutoML Solutions, oder Google Cloud Platform (GCP) mit AutoML Dienstleistungen in diesem Bereich an, was den Aufwand einer eigenen Implementierung dieser komplexen Methode minimiert.
  • Kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD) für Maschinelles Lernen: Die Implementierung von CI/CD-Verfahren in MLOps stellt sicher, dass Änderungen an Modellen und Code nahtlos integriert und bereitgestellt werden. Dies fördert eine schnelle Experimentier- und Iterationskultur, die es Unternehmen ermöglicht, Modelle schnell an veränderte Geschäftsanforderungen und eine veränderte Verteilung von Daten anzupassen.
  • Erklärbarkeit und Interpretierbarkeit von Modellen (XAI): Da ML-Modelle immer komplexer werden, wird das Begreifen ihrer Entscheidungsprozesse immer wichtiger. XAI-Techniken helfen zu erklären, wie die Modelle zu ihren Vorhersagen kommen, fördern das Vertrauen in die Modellergebnisse und ermöglichen es den Stakeholdern, mögliche Verzerrungen oder Fairnessprobleme zu erkennen.

    Tools, die Sie dabei unterstützen können ML-Modelle erklärbarer und ihre Entscheidungen transparenter zu machen, sind z.B. Alibi Explain eine open-source Python Bibliothek, die auf die Interpretation und Einsicht von ML-Modellen abzielt, oder SHapley Additive exPlanations (SHAP) ein Ansatz aus der Spieltheorie, um die Ausgabe beliebiger ML-Modelle zu erklären.
  • MLOps für Responsible AI: Die verantwortungsvolle Entwicklung und der Einsatz von KI-Modellen sind ein zentrales Anliegen. MLOps-Praktiken, die die Prinzipien Fairness, Rechenschaftspflicht, Transparenz und Ethik (Microsofts Forschungsgruppe FATE beschäftigt sich beispielsweise mit diesem Themengebiet) in den gesamten Lebenszyklus von KI-Modellen einbeziehen, sind unerlässlich, um sicherzustellen, dass die Modelle unvoreingenommen sind, unbeabsichtigte Folgen vermieden werden und die geltenden gesetzlichen Bestimmungen eingehalten werden.

    Ein Beispiel für eine solche Rechtsvorschrift ist der kürzlich vom Europäischen Parlament verabschiedete AI Act , ein „Rechtsrahmen für KI, der die Risiken der KI angeht und Europa in die Lage versetzt, weltweit eine führende Rolle zu spielen“. Bei dem Unterfangen verantwortungsvoll und sicher KI zu gestalten, können beispielsweise Arthur und Fiddler herangezogen werden.
  • Integration mit DevOps: Die Anpassung von MLOps-Praktiken an bestehende DevOps-Workflows kann eine einheitlichere Entwicklungsumgebung schaffen. Dies fördert die Zusammenarbeit zwischen Data Scientists, ML und Software Engineers und führt schließlich zu einem schlankeren und effizienteren Softwareentwicklungs-Lebenszyklus (SDLC), der maschinelles Lernen mit einschließt.
  • Bedeutung von datengesteuerter KI und DataOps: Daten sind das Lebenselixier von ML-Modellen. DataOps-Praktiken, die die Datenqualität, -verfügbarkeit und -sicherheit während des gesamten ML-Lebenszyklus sicherstellen, sind entscheidend für die Leistungsfähigkeit der Modelle und die Zuverlässigkeit des gesamten Systems. DataOps kombiniert Automatisierung, Zusammenarbeit und agile Praktiken, um die Geschwindigkeit, Zuverlässigkeit und Qualität der Daten zu verbessern, die durch Ihr gesamtes Unternehmen fließen. Mit diesem Ansatz können Sie schneller Erkenntnisse aus Ihren Daten gewinnen, datengesteuerte Entscheidungen effektiver treffen und die Qualität und Leistung Ihrer Machine Learning-Modelle auf der Grundlage dieser Daten verbessern.
  • Fokus auf Sicherheit: Mit der zunehmenden Verbreitung von ML-Modellen wird es immer wichtiger, sie vor potenziellen Angriffen zu schützen. MLOps-Praktiken, die Sicherheitsüberlegungen in den gesamten Lebenszyklus des Modells integrieren, sind unerlässlich, um Risiken wie Data Poisoning, gegnerische Angriffe und Modelldiebstahl zu verhindern.

Herausforderungen meistern: Aufbau eines soliden MLOps-Grundgerüsts

Auch wenn die Zukunft von MLOps sehr verheißungsvoll erscheint, müssen zahlreiche Herausforderungen bewältigt werden, um einen erfolgreichen Einsatz von ML zu gewährleisten. 

Hierbei sind einige wesentliche Schlüsselbereiche zu berücksichtigen:

  • Standardisierung und Interoperabilität: Die fehlende Standardisierung von MLOps-Tools und -Frameworks kann zu Insellösungen führen und die Zusammenarbeit erschweren. Die Förderung der Interoperabilität zwischen Tools und die Einführung von Best Practices für MLOps-Workflows sind entscheidend für die Schaffung eines einheitlicheren und effizienteren Ökosystems. Ein erster Ansatz, um diesem Missstand zu begegnen, ist das Open Inference Protocol, eine industrieweite Anstrengung, die darauf abzielt ein standardisiertes Kommunikationsprotokoll zwischen sogenannten Inferenzservern (z.B. Seldon MLServer, NVIDIA Triton Inference Server) und orchestrating frameworks wie Seldon Core oder KServe zu etablieren.
  • Nachwuchsmangel: Die Nachfrage nach qualifizierten MLOps-Fachkräften übersteigt das verfügbare Angebot. So stieg die Anzahl der offenen Stellen für IT-Fachkräfte in Unternehmen in Deutschland laut Statista im Jahr 2023 auf das Rekordhoch von 149.000, und Index Research berichtet, dass von Januar bis April 2023 Arbeitgeber fast 44.000 Stellen für KI-Experten ausschrieben. Um diese Lücke zu verkleinern und ein starkes MLOps-Team aufzubauen, müssen Unternehmen erheblich in Schulungsprogramme, Strategien zur Talentgewinnung und eine wettbewerbsfähige Mitarbeitervergütung investieren. Dieser Prozess umfasst das Erkennen der wesentlichen Fähigkeiten und Fachkenntnisse, die für eine erfolgreiche MLOps-Implementierung erforderlich sind, wie zum Beispiel Data Science, Software Engineering, Cloud Computing und DevOps. Ferner beinhaltet er die Zusammenstellung interdisziplinärer Teams, die diese verschiedenen Disziplinen abdecken.
  • Monitoring und Beobachtbarkeit: Die effektive Überwachung der Leistung und des Zustands von ML-Modellen in der Produktion ist entscheidend, um Probleme frühzeitig zu erkennen und die Zuverlässigkeit des Modells zu gewährleisten. Die Entwicklung robuster Monitoring-Systeme und deren Integration in MLOps-Pipelines ist von entscheidender Bedeutung. Aporia, eine ML-Plattform, die sich die Beobachtbarkeit von ML-Modellen zum Ziel gesetzt hat, kann zu diesem Zweck eingesetzt werden.
  • Modellverwaltung: Die Schaffung klarer Governance-Rahmen für die Verwaltung des Lebenszyklus von ML-Modellen ist unerlässlich. Dazu gehören die Festlegung von Rollen und Zuständigkeiten, die Sicherstellung der Modellversionierung und -kontrolle sowie die Festlegung von Richtlinien für die Bereitstellung und Stilllegung von Modellen. Beispiele für Lösungen bzw. Plattformen, die diese Eigenschaften zusammen mit vielen anderen des ML lifecycles ganzheitlich abbilden, sind die Enterprise Plattformen Domino Data Lab sowie Dataiku.
  • Erklärbarkeit und Erkennung von Bias:  Wie bereits erwähnt, sind die Gewährleistung der Erklärbarkeit von Modellen und die Erkennung potenzieller Vorurteile entscheidende Aspekte einer verantwortungsbewussten KI. Unternehmen müssen in Tools und Techniken investieren, um zu verstehen, wie Modelle zu ihren Entscheidungen kommen, und um etwaige Fairnessprobleme zu identifizieren und zu entschärfen.

Schlussfolgerung: MLOps-Praktiken aufgreifen und gestalten, um Mehrwert zu schaffen

Die Zukunft von MLOps ist äußerst vielversprechend. Unternehmen können belastbare und effiziente betriebliche Prozesse aufbauen, indem sie aufkommende Trends aufgreifen, bewerten, ihre Schlussfolgerungen daraus ziehen und die damit verbundenen Herausforderungen proaktiv angehen.

Auf diese Weise stellen sie nicht einfach nur KI-Modelle für ihre Kunden bereit, sondern schaffen ein Fundament, das für Skalierbarkeit, Verfügbarkeit und Zuverlässigkeit der Modelle Sorge trägt sowie gesetzlichen Anforderungen genügt. Der wichtigste Mehrwert, der diesem Prozess entspringt, ist jedoch das Schaffen von Vertrauen in die Verlässlichkeit, Fairness und Sicherheit der KI-Modelle, was wiederum das Vertrauen in das Unternehmen stärkt.

Kontakt

Region

Florian Erhard

Florian ist Machine Learning Engineer bei HiQ. Wenn er nicht gerade über KI und maschinelles Lernen liest, reist er gerne und taucht in fremde Kulturen ein.

HiQ offers a wide range of Atlassian services and is a successful Atlassian Platinum Solution Partner.

Mehr Leistung für die Produkte von Atlassian

Atlassian Intelligence bringt KI-gestützte Automatisierung direkt in deine Atlassian-Tools. Von smarter Ticket-Klassifizierung bis hin zu automatisierten Antworten – die neuen Features steigern Effizienz und Produktivität. Wir erklären, wie Sie Atlassian Intelligence optimal für Ihr Team nutzen.

Künstliche Intelligenz (KI; Artificial Intelligence = AI) ist eines DER aktuellen Schlagwörter und beeinflusst nahezu jeden Bereich in unserem Alltag. Als Teilgebiet der Informatik und aufgrund der Digitalisierung der letzten Jahre, hat sich KI zu seinem sehr lebendigen Produkt entwickelt.

Dieser rasante Fortschritt scheint gerade erst Fahrt aufzunehmen und beeinflusst uns doch schon in so vielen Bereichen – von der Suche nach dem schnellsten Weg, über die nächste Serienempfehlung auf einem Streaming-Dienst bis hin zu bereits existierenden Smart-Home Geräten. Überall machen es uns die KI-Algorithmen leichter. Das hat auch zur Folge, dass sich immer mehr Unternehmen und Start-Ups auf die Technologie spezialisieren oder sich zumindest in dessen Bereich weiterentwickeln.

So auch Atlassian, der australische Anbieter von Softwarelösungen für Softwareentwickler mit seiner Atlassian Intelligence (auch AI genannt).

Was ist Atlassian Intelligence?

Die Sammlung von KI-gestützten Funktionen wird für viele Produkte angeboten und unterstützt die Leistungsfähigkeit beliebter Cloud-Produkte, wie z.B. Jira, Confluence oder Trello. Die AI fungiert gewissermaßen als virtueller Teamkollege, der Teams dabei unterstützt, ihre Produktivität zu steigern und effizienter zusammenzuarbeiten. Basierend auf OpenAI ermöglicht Atlassian, die Leistungsfähigkeit der Tools zu verbessern und den NutzerInnen ein nahtloses Arbeitsumfeld zu bieten.

Einige Vorteile der Atlassian Intelligence

  • Anpassung auf die Atlassian Lösungen
  • Integration in Atlassian Programme
  • basierend auf Natural Language Processing (NLP)
  • über alle Bereiche hinweg – von der Suche über die Navigation bis hin zur Erstellung von Inhalten und der Ausführung von Aufgaben

Warum lohnt sich der Einsatz von Atlassian Intelligence?

  • Zeit & Ressourcen sparen
  • Arbeitserleichterung
  • einfachere Kreation von Strategien
  • automatisch optimierte Berichte
  • Verbesserung der Kommunikationswege
  • erleichterte Erstellung von Inhalten
  • smarte Suchfunktion

Nachfolgend möchten wir Ihnen ein paar Beispiele zeigen, wie AI bereits jetzt verwendet werden kann. Hier folgen in nächster Zeit weitere Features und Funktionen und AI wird auch in weiteren Tools aktiviert, wie Trello, Bitbucket oder Atlassian Analytics.

Beispiel: Confluence

Funktionen:

  • Inhalte kreieren und transformieren
    • Schreibstil verbessern
    • Titel vorschlagen
    • Grammatik verbessern
    • Text kürzen
    • Brainstorming
  • Inhalte zusammenfassen
  • Automatisierungen erstellen
  • Begriffe definieren

Beispiel: Jira Service Management

Funktionen:

  • Inhalte kreieren und transformieren
  • Inhalte zusammenfassen
  • Anfragetypen vorschlagen
  • Antworten auf Kundenanfragen

Beispiel: Jira Software

Funktionen:

  • Inhalte kreieren und transformieren
  • nach Vorgängen suchen

Ab dem 6. Mai wird Atlassian Intelligence automatisch für alle Produkte der Premium- und Enterprise-Pläne aktiviert.

Hier geht es zum Atlassian Rechner.

Sie haben noch kein Premium? Dann kontaktieren Sie uns gerne! Als Platinum Solution Partner können unter anderem vergünstigte Zugänge anbieten!

Kontakt

Region

Sie möchten mehr erfahren? Unsere Expert:innen beraten Sie gern.