Mattermost lanza “OpenOps” para acelerar evaluación responsable de IA generativa aplicada a flujos de trabajo

Sandbox de colaboración de chat optimizado por IA de código abierto acelera evaluación de modelos de IA generativa y políticas de uso de flujos de trabajo del mundo real mientras mantiene control total de datos


PALO ALTO, California, June 28, 2023 (GLOBE NEWSWIRE) -- En la Conferencia de Colisión 2023, Mattermost, Inc., la plataforma de colaboración segura para equipos técnicos, anunció el lanzamiento de "OpenOps", un enfoque de código abierto para acelerar la evaluación responsable de flujos de trabajo y políticas de uso optimizados por IA, mientras mantiene el control de datos y evita el monopolio de proveedores.

OpenOps surge en la intersección de la carrera para utilizar la IA para obtener ventaja competitiva y la necesidad urgente de ejecución de operaciones confiables, incluyendo el desarrollo de políticas de uso y supervisión y la seguridad de controles de datos regulatorios y contractualmente obligados.

Su objetivo es ayudar a eliminar los principales obstáculos entre estas preocupaciones críticas, permitiendo que los desarrolladores y organizaciones auto-hospeden un entorno "sandbox" con control total de datos para una evaluación responsable de los beneficios y riesgos de diferentes modelos de IA y políticas de uso en flujos de trabajo de colaboración de chat multiusuario del mundo real.

El sistema se puede utilizar para evaluar LLMs auto-hospedados listados en Hugging Face, incluyendo Falcon LLM y GPT4All, cuando el uso está optimizado para control de datos, así como modelos hiperescalados hospedados por el proveedor de la plataforma Azure AI, OpenAI ChatGPT y Anthropic Claude cuando el uso está optimizado para rendimiento.

La primera versión de la plataforma OpenOps permite la evaluación de una variedad de casos de uso aumentados por IA, que incluyen:

Preguntas y respuestas automatizadas: Durante el trabajo colaborativo e individual, los usuarios pueden hacer preguntas a los modelos de IA generativa, ya sean autohospedados u hospedados por el proveedor, para obtener información sobre los diferentes temas compatibles con el modelo.

Resumen del diálogo: Los resúmenes generados por IA se pueden crear de los diálogos interactivos autohospedados y basados en chat para acelerar los flujos de información y la toma de decisiones, mientras que reduce el tiempo y el costo necesarios para que las organizaciones se mantengan actualizadas.

Interrogatorio contextual: Los usuarios pueden hacer preguntas de seguimiento a los resúmenes de temas generados por bots de IA para obtener más detalles sobre la información subyacente sin entrar en los datos brutos. Por ejemplo, un resumen del diálogo interactivo de un bot de IA acerca de un determinado individuo que hace una serie de solicitudes sobre cuestiones de solución de problemas puede ser interrogado por medio del bot de IA para obtener más contexto sobre por qué el individuo hizo las solicitudes y cómo pretendía usar la información.

Análisis de sentimientos: Los bots de IA pueden analizar el sentimiento de los mensajes, que se pueden utilizar para recomendar y ofrecer reacciones emoji en esos mensajes en nombre de un usuario. Por ejemplo, después de detectar un sentimiento de celebración, un robot de IA puede añadir una reacción emoji de "fuego" que indica emoción.

Aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF): Para ayudar a evaluar y capacitar a modelos de IA, el sistema puede recopilar la retroalimentación de usuarios sobre las respuestas de diferentes indicadores y modelos registrando las señales de "pulgares arriba/pulgares abajo" que seleccionan los usuarios finales. Los datos se pueden utilizar en el futuro para ajustar los modelos existentes, así como para ofrecer información para evaluar modelos alternativos en solicitudes de usuarios anteriores.

Esta estructura autohospedada de código abierto ofrece una "arquitectura de IA y operaciones controladas por el cliente", que ofrece un centro operativo para coordinación y automatización con bots de IA conectados a backends de IA generativa y LLM intercambiables y autohospedados de servicios como Hugging Face que pueden escalar a nubes privadas y arquitecturas de centros de datos, así como escalar hacia abajo para ser ejecutado en la laptop de un desarrollador para investigación y exploración. Al mismo tiempo, también se puede conectar a modelos hiperescalados hospedados por el proveedor desde la plataforma Azure AI, así como a OpenAI.

"Cada organización está en una carrera para definir cómo la IA acelera su ventaja competitiva", dice el director ejecutivo de Mattermost, Ian Tien, "Creamos OpenOps para ayudar a las organizaciones a liberar su potencial de manera responsable con la capacidad de evaluar una amplia gama de políticas de uso y modelos de IA en su capacidad para acelerar los flujos de trabajo internos en conjunto".

La estructura OpenOps recomienda un enfoque de cuatro fases para el desarrollo de aumentos de IA:

1 - Sandbox autohospedado: Para que los equipos técnicos puedan establecer un entorno de "sandbox" autohospedado como un espacio seguro con control de datos y auditabilidad para explorar y demostrar tecnologías de IA generativa. El sandbox de OpenOps puede incluir solo colaboración de chat multiusuario basada en la web, o ampliarse para incluir aplicaciones de desktop y móviles, integraciones de diferentes herramientas internas para simular un entorno de producción, así como integración con otros entornos de colaboración, como canales específicos de Microsoft Teams.

2 - Estructura de control de datos: Los equipos técnicos conducen una evaluación inicial de diferentes modelos de IA en casos de uso internos y establecen un punto de partida para las políticas de uso que cubren problemas de control de datos con diferentes modelos basados en si los modelos son autohospedados u hospedados por el proveedor, y en modelos hospedados por el proveedor basados en diferentes seguridades de manejo de datos. Por ejemplo, las políticas de control de datos pueden variar desde el bloqueo completo de IAs hospedadas por el proveedor hasta el bloqueo del uso sospechoso de datos confidenciales, como números de tarjetas de crédito o claves privadas, o políticas personalizadas que se pueden codificar en el entorno.

3 - Estructura de confianza, seguridad y conformidad: Los equipos de confianza, seguridad y conformidad están invitados al entorno de sandbox para observar e interactuar con los casos de uso iniciales optimizados por IA y trabajar con equipos técnicos para el desarrollo de políticas de uso y supervisión además del control de datos. Por ejemplo, establecer pautas sobre si IA se puede utilizar para ayudar a los gerentes a escribir evaluaciones de desempeño para sus equipos, o si las técnicas de investigación para el desarrollo de software malicioso se pueden investigar utilizando IA.

4 - Piloto y producción: una vez que una línea de base para políticas de uso y optimizaciones iniciales de IA están disponibles, se puede agregar un grupo de usuarios piloto al entorno de sandbox para evaluar los beneficios de los aumentos. Los equipos técnicos pueden iterar en la adición de aumentos de flujo de trabajo utilizando diferentes modelos de IA, mientras que los equipos de confianza, seguridad y conformidad pueden monitorear el uso con total auditabilidad e iterar en las políticas de uso y sus implementaciones. Mientras el sistema piloto madura, el conjunto completo de optimizaciones se puede implementar en entornos de producción que se pueden ejecutar en una versión de producción de la estructura OpenOps.

La estructura OpenOps incluye las siguientes capacidades:

Centro operativo autohospedado: OpenOps permite flujos de trabajo operacionales autohospedados en una plataforma de mensajes en tiempo real a través de la web, dispositivos móviles y desktop desde el proyecto de código abierto Mattermost. Integraciones con sistemas internos y herramientas de desarrollo populares para ayudar a enriquecer los backends de IA con datos críticos y contextuales. La automatización del flujo de trabajo acelera los tiempos de respuesta mientras reduce las tasas de error y el riesgo.

Bots de IA con backends de IA intercambiables: OpenOps permite que los bots de IA se integren en las operaciones mientras están conectados a una variedad intercambiable de plataformas de IA. Para un máximo control de datos, trabaje con modelos LLM de código abierto autohospedados, incluyendo GPT4All y Falcon LLM de servicios como Hugging Face. Para obtener el máximo rendimiento, aproveche la estructura de IA de terceros, incluyendo OpenAI ChatGPT, Azure AI Platform y Anthropic Claude.

Control total de datos: OpenOps permite a las organizaciones el autohospedaje, control y monitoreo de todo el tráfico de datos, IP y de red utilizando su infraestructura de seguridad y conformidad existente. Esto permite a las organizaciones desarrollar un rico corpus de datos de capacitación del mundo real para futuras evaluaciones y ajustes de backend de IA.

Gratuito y código abierto: Disponible bajo las licencias MIT y Apache 2, OpenOps es un sistema gratuito y de código abierto, que permite que las empresas implementen y ejecuten con facilidad la arquitectura completa.

Escalabilidad: OpenOps ofrece la flexibilidad para implementación en nubes privadas, centros de datos o incluso en una laptop estándar. El sistema también elimina la necesidad de hardware especializado como las GPU, ampliando el número de desarrolladores que pueden explorar modelos de IA autohospedados.

La estructura OpenOps es actualmente experimental y se puede descargar de openops.mattermost.com.

Acerca de Mattermost

Mattermost ofrece un centro seguro y extensible para los equipos técnicos y operativos que necesitan cumplir con los requisitos de seguridad y confianza a nivel de estado-nación. Prestamos servicios a las industrias de tecnología, sector público y defensa nacional con clientes que van desde los gigantes tecnológicos hasta el Departamento de Defensa de los Estados Unidos y agencias gubernamentales en todo el mundo.

Nuestras ofertas autohospedadas y en la nube ofrecen una plataforma robusta para comunicación técnica en todo el flujo de trabajo operacional de soporte web, desktop y móvil, colaboración en incidentes, integración con Dev/Sec/Ops y cadenas de herramientas internas y conexión con una amplia gama de plataformas de comunicaciones unificadas.

Operamos en una plataforma de código abierto verificada e implementada por las organizaciones más seguras y de misión crítica del mundo, desarrollada en conjunto con más de 4,000 colaboradores de proyectos de código abierto que ofrecen más de 30,000 mejoras de código para nuestra visión de producto compartida, que se traduce a 20 idiomas.

Para más información visite, www.mattermost.com

Mattermost y el logotipo de Mattermost son marcas comerciales registradas de Mattermost, Inc. Todas las otras marcas comerciales pertenecen a sus respectivos propietarios.

Contacto de Medios:

Amy Nicol
Relaciones de Prensa
Mattermost, Inc.

+1 (650) 667-8512
media@mattermost.com

Imágenes:

Título: Ian Tien, director ejecutivo de Mattermost, Inc.

Título: Ian Tien, director ejecutivo de Mattermost, Inc., anuncia la plataforma "OpenOps" para controlar la PI y evitar bloqueo mientras los flujos de trabajo operativos son acelerados por IA

Imagen completa: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Fotos asociadas a este comunicado de prensa están disponibles en :

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf-8b1b-4ed6-9f51-952fc8b97597/es

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d-4245-4ee9-91ff-895cf0afa68b


Ian Tien, director ejecutivo de Mattermost, Inc. Mattermost OpenOps