Mattermost führt „OpenOps“ zur Beschleunigung der verantwortungsvollen Bewertung von generativer KI in Arbeitsabläufen ein

Die Open-Source-Sandbox für KI-gestützte Chat-Zusammenarbeit beschleunigt die Evaluierung von generativen KI-Modellen und Nutzungsrichtlinien in realen Arbeitsabläufen bei voller Datenkontrolle


PALO ALTO, Kalifornien, June 28, 2023 (GLOBE NEWSWIRE) -- Auf der Collision Conference 2023 hat Mattermost, Inc. die sichere Kollaborationsplattform für technische Teams, die Einführung von „OpenOps“ angekündigt, einem Open-Source-Ansatz zur Beschleunigung der verantwortungsvollen Evaluierung von KI-gestützten Workflows und Nutzungsrichtlinien bei gleichzeitiger Beibehaltung der Datenkontrolle und Vermeidung von Anbieterbindung.

OpenOps entsteht an der Schnittstelle zwischen dem Bestreben, KI als Wettbewerbsvorteil zu nutzen, und der dringenden Notwendigkeit, einen vertrauenswürdigen Betrieb zu führen, einschließlich der Entwicklung von Nutzungs- und Überwachungsrichtlinien und der Sicherstellung gesetzlicher und vertraglich festgelegter Datenkontrollen.

Es soll dazu beitragen, Engpässe zwischen diesen kritischen Belangen zu beseitigen, indem es Entwicklern und Unternehmen ermöglicht, selbst eine „Sandbox“-Umgebung mit voller Datenkontrolle zu hosten, um die Vorteile und Risiken verschiedener KI-Modelle und Nutzungsrichtlinien für reale Chat-Collaboration-Workflows mit mehreren Nutzern verantwortungsbewusst zu bewerten.

Das System kann verwendet werden, um selbst gehostete LLMs, die auf Hugging Face aufgelistet sind, einschließlich Falcon LLM und GPT4All, wenn die Nutzung für die Datenkontrolle optimiert ist, sowie hyperskalierte, von Anbietern gehostete Modelle der Azure AI-Plattform, OpenAI ChatGPT und Anthropic Claude zu bewerten, wenn die Nutzung für die Leistung optimiert ist.

Die erste Version der OpenOps-Plattform ermöglicht die Evaluierung einer Reihe von KI-gestützten Anwendungsfällen, darunter:

Automatisierte Frage- und Antwortabläufe: Während der gemeinsamen oder individuellen Arbeit können die Nutzer Fragen an generative KI-Modelle stellen, die entweder selbst gehostet oder von Anbietern gehostet werden, um mehr über verschiedene Themen zu erfahren, die das Modell unterstützt.

Zusammenfassung von Diskussionen: KI-generierte Zusammenfassungen können aus selbst gehosteten, chatbasierten Diskussionen erstellt werden, um den Informationsfluss und die Entscheidungsfindung zu beschleunigen und gleichzeitig den Zeit- und Kostenaufwand für Unternehmen zu reduzieren, um auf dem neuesten Stand zu bleiben.

Kontextbezogene Befragung: Nutzer können als Reaktion auf von den KI-Bots erstellten Thread-Zusammenfassungen Folgefragen stellen, um mehr über die zugrunde liegenden Informationen zu erfahren, ohne sich mit den Rohdaten zu befassen. So könnte beispielsweise eine Diskussionszusammenfassung eines KI-Bots über eine bestimmte Person, die eine Reihe von Anfragen zur Fehlerbehebung gestellt hat, über den KI-Bot abgefragt werden, um mehr darüber zu erfahren, warum die Person die Anfragen gestellt hat und wie sie die Informationen zu nutzen gedenkt.

Stimmungsanalyse: KI-Bots können die Stimmung von Nachrichten analysieren, um Empfehlungen auszusprechen und Emoji-Reaktionen auf diese Nachrichten im Namen eines Nutzers zu liefern. Wenn ein KI-Bot zum Beispiel eine feierliche Stimmung erkennt, kann er eine Reaktion mit einem „Feuer“-Emoji hinzufügen, die Aufregung anzeigt.

Verstärkungslernen aus der Sammlung menschlichen Feedbacks: Um die Bewertung und das Training von KI-Modellen zu unterstützen, kann das System Rückmeldungen von Nutzern zu den Antworten auf verschiedene Aufforderungen und Modelle sammeln, indem es die „Daumen hoch/Daumen runter“-Signale aufzeichnet, die die Endnutzer auswählen. Die Daten können in Zukunft sowohl für die Feinabstimmung bestehender Modelle als auch für die Bewertung alternativer Modelle auf der Grundlage früherer Benutzeraufforderungen verwendet werden.

Dieses quelloffene, selbst gehostete Framework bietet eine „kundengesteuerte Betriebs- und KI-Architektur“. Diese stellt ein operatives Zentrum für die Koordination und Automatisierung mit KI-Bots dar, die mit austauschbaren, selbst gehosteten generativen KI- und LLM-Backends von Diensten wie Hugging Face verbunden sind. Diese wiederum können auf private Cloud- und Rechenzentrumsarchitekturen hochskaliert werden, aber auch auf dem Laptop eines Entwicklers zu Forschungs- und Erkundungszwecken laufen. Gleichzeitig kann es sich auch mit hyperskalierten, von Anbietern gehosteten Modellen der Azure AI-Plattform sowie mit OpenAI verbinden.

„Jede Organisation befindet sich in einem Wettlauf, um zu definieren, wie KI ihren Wettbewerbsvorteil beschleunigt“, so Ian Tien, CEO von Mattermost. „Wir haben OpenOps geschaffen, um Organisationen dabei zu helfen, ihr Potenzial verantwortungsvoll zu erschließen, indem sie eine breite Palette von Nutzungsrichtlinien und KI-Modellen in ihrer Fähigkeit bewerten können, die internen Arbeitsabläufe gemeinsam zu beschleunigen.“

Der OpenOps-Rahmen empfiehlt einen vierstufigen Ansatz für die Entwicklung von KI-Erweiterungen:

1 - Selbst gehostete Sandbox – Lassen Sie technische Teams eine selbst gehostete „Sandbox“-Umgebung als sicheren Raum mit Datenkontrolle und Prüfbarkeit einrichten, um generative KI-Technologien zu erforschen und zu demonstrieren. Die OpenOps-Sandbox kann webbasierte Multi-User-Chat-Zusammenarbeit allein umfassen oder um Desktop- und mobile Anwendungen, Integrationen verschiedener interner Tools zur Simulation einer Produktionsumgebung sowie die Integration mit anderen Kollaborationsumgebungen, wie z. B. bestimmten Microsoft Teams-Kanälen, erweitert werden.

2 - Datenkontrollrahmen – Technische Teams führen eine erste Bewertung verschiedener KI-Modelle für interne Anwendungsfälle durch und legen einen Ausgangspunkt für Nutzungsrichtlinien fest, die Fragen der Datenkontrolle bei verschiedenen Modellen abdecken, je nachdem, ob es sich um selbst gehostete oder von Anbietern gehostete Modelle handelt, und bei von Anbietern gehosteten Modellen auf der Grundlage unterschiedlicher Datenverarbeitungsgarantien. Die Datenkontrollrichtlinien können beispielsweise von der vollständigen Sperrung der von Anbietern gehosteten KI über die Sperrung der vermuteten Verwendung sensibler Daten wie Kreditkartennummern oder privater Schlüssel bis hin zu benutzerdefinierten Richtlinien reichen, die in die Umgebung kodiert werden können.

3 - Vertrauens-, Sicherheits- und Compliance-Rahmen – Vertrauens-, Sicherheits- und Compliance-Teams werden in die Sandbox-Umgebung eingeladen, um erste KI-gestützte Anwendungsfälle zu beobachten und mit ihnen zu interagieren und mit den technischen Teams zusammenzuarbeiten, um zusätzlich zur Datenkontrolle Nutzungs- und Aufsichtsrichtlinien zu entwickeln. So können beispielsweise Richtlinien darüber definiert werden, ob KI verwendet werden kann, um Managern bei der Erstellung von Leistungsbewertungen für ihre Teams zu helfen, oder ob Techniken zur Entwicklung bösartiger Software mithilfe von KI erforscht werden können.

4 - Pilot und Produktion – Sobald eine Basis für Nutzungsrichtlinien und erste KI-Verbesserungen verfügbar ist, kann eine Gruppe von Pilotnutzern in die Sandbox-Umgebung aufgenommen werden, um die Vorteile der Erweiterungen zu bewerten. Technische Teams können mit Hilfe verschiedener KI-Modelle Workflow-Erweiterungen hinzufügen, während die Teams für Vertrauen, Sicherheit und Compliance die Nutzung mit vollständiger Auditierbarkeit überwachen und Nutzungsrichtlinien und deren Implementierung überarbeiten können. Wenn das Pilotsystem ausgereift ist, können alle Verbesserungen in Produktionsumgebungen eingesetzt werden, die auf einer produktionsreifen Version des OpenOps-Frameworks laufen können.

Das OpenOps-Framework umfasst die folgenden Funktionen:

Selbstgehosteter operativer Hub: OpenOps ermöglicht selbst gehostete operative Workflows auf einer Echtzeit-Messaging-Plattform für Web, Mobilgeräte und Desktop-Computer des Open-Source-Projekts Mattermost. Integrationen mit internen Systemen und beliebten Entwickler-Tools zur Anreicherung von KI-Backends mit wichtigen, kontextbezogenen Daten. Die Automatisierung von Arbeitsabläufen beschleunigt die Reaktionszeiten und reduziert gleichzeitig Fehlerquoten und Risiken.

KI-Bots mit austauschbaren KI-Backends: OpenOps ermöglicht die Integration von KI-Bots in den Betrieb und die Anbindung an eine austauschbare Reihe von KI-Plattformen. Für maximale Datenkontrolle sollten Sie mit selbst gehosteten, quelloffenen LLM-Modellen wie GPT4All und Falcon LLM von Diensten wie Hugging Face arbeiten. Für maximale Leistung können Sie auf KI-Frameworks von Drittanbietern wie OpenAI ChatGPT, die Azure AI Platform und Anthropic Claude zurückgreifen.

Vollständige Datenkontrolle: OpenOps ermöglicht es Unternehmen, den gesamten Daten-, IP- und Netzwerkverkehr selbst zu hosten, zu kontrollieren und zu überwachen, indem sie ihre bestehende Sicherheits- und Compliance-Infrastruktur nutzen. Auf diese Weise können Unternehmen einen umfangreichen Bestand an realen Trainingsdaten für die zukünftige Bewertung und Feinabstimmung von KI-Backends entwickeln.

Kostenlos und Open Source: OpenOps ist ein kostenloses, quelloffenes System, das unter der MIT- und Apache-2-Lizenz verfügbar ist und es Unternehmen ermöglicht, die komplette Architektur einfach einzusetzen und zu betreiben.

Skalierbarkeit: OpenOps bietet die Flexibilität zur Bereitstellung in privaten Clouds, Rechenzentren oder sogar auf einem Standard-Laptop. Das System macht auch spezielle Hardware wie GPUs überflüssig, wodurch mehr Entwickler selbst gehostete KI-Modelle erforschen können.

Das OpenOps-Framework ist derzeit experimentell und kann unter openops.mattermost.com heruntergeladen werden.

Über Mattermost

Mattermost bietet einen sicheren, erweiterbaren Hub für technische und operative Teams, die Sicherheits- und Vertrauensanforderungen auf nationaler Ebene erfüllen müssen. Unsere Kunden aus den Bereichen Technologie, öffentlicher Sektor und nationale Verteidigung reichen von Tech-Giganten über das US-Verteidigungsministerium bis hin zu Regierungsbehörden in aller Welt.

Unsere selbst gehosteten und Cloud-Angebote bieten eine robuste Plattform für die technische Kommunikation über Web, Desktop und Mobilgeräte, die betriebliche Arbeitsabläufe, die Zusammenarbeit bei Vorfällen, die Integration mit Dev/Sec/Ops und internen Toolchains sowie die Verbindung mit einer breiten Palette von Unified Communications-Plattformen unterstützt.

Wir arbeiten auf einer Open-Source-Plattform, die von den sichersten und geschäftskritischsten Organisationen der Welt geprüft und eingesetzt wird. Sie wird gemeinsam mit über 4 000 Open-Source-Projektmitarbeitern entwickelt, die über 30 000 Code-Verbesserungen für unsere gemeinsame Produktvision bereitgestellt haben, die in 20 Sprachen übersetzt wurde.

Um mehr zu erfahren, besuchen Sie uns unter www.mattermost.com.

Mattermost und das Mattermost-Logo sind eingetragene Marken von Mattermost, Inc. Alle anderen Marken sind Eigentum ihrer jeweiligen Inhaber.

Medienkontakt:

Amy Nicol
Press Relations
Mattermost, Inc.

+1 (650) 667-8512
media@mattermost.com

Bilder:

Titel: Ian Tien, CEO von Mattermost, Inc.

Bildunterschrift: Ian Tien, CEO von Mattermost, Inc., kündigt angesichts der Beschleunigung betrieblicher Abläufe durch KI seine „OpenOps“-Plattform zur Steuerung von IP und zur Vermeidung von Lock-Ins an

Vollständiges Bild: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Fotos zu dieser Ankündigung sind verfügbar unter:

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf-8b1b-4ed6-9f51-952fc8b97597/de

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d-4245-4ee9-91ff-895cf0afa68b


Ian Tien, CEO von Mattermost, Inc. Mattermost OpenOps