Tema

AI generativa

Descubre los últimos avances de Elastic en seguridad de LLM, centrados en integraciones de campo estandarizadas y capacidades de detección mejoradas. Descubre cómo la adopción de estos estándares puede proteger tus sistemas.

imagen de marcador de posición
Incorporación de la seguridad en flujos de trabajo de LLM: el enfoque proactivo de Elastic

Incorporación de la seguridad en flujos de trabajo de LLM: el enfoque proactivo de Elastic

Sumérgete en la exploración de Elastic sobre la incorporación de seguridad directamente en los modelos de lenguaje grandes (LLM). Descubre nuestras estrategias para detectar y mitigar varias de las principales vulnerabilidades de OWASP en aplicaciones de LLM, lo que garantiza aplicaciones impulsadas por IA más seguras y protegidas.

Acelerar el proceso de detección de Elastic con los LLM

Acelerar el proceso de detección de Elastic con los LLM

Obtén más información sobre cómo Elastic Security Labs se ha enfocado en acelerar nuestros flujos de trabajo de ingeniería de detección al aprovechar más capacidades de la IA generativa.

Uso de LLM y ESRE para encontrar sesiones de usuario similares

Uso de LLM y ESRE para encontrar sesiones de usuario similares

En nuestro artículo anterior, analizamos el uso del modelo de lenguaje grande (LLM) de GPT-4 para condensar las sesiones de usuario de Linux. En el contexto del mismo experimento, dedicamos un tiempo a examinar las sesiones que compartían similitudes. Posteriormente, estas sesiones similares pueden ayudar a los analistas a identificar actividades sospechosas relacionadas.

Uso de LLM para resumir sesiones de usuario

Uso de LLM para resumir sesiones de usuario

En esta publicación, hablaremos sobre las lecciones aprendidas y los puntos clave de nuestros experimentos con GPT-4 para resumir las sesiones de usuario.

Explorando el futuro de la seguridad con ChatGPT

Explorando el futuro de la seguridad con ChatGPT

Recientemente, OpenAI anunció API para que los ingenieros integren los modelos de ChatGPT y Whisper en sus aplicaciones y productos. Durante algún tiempo, los ingenieros podían usar las llamadas a la API REST para modelos más antiguos y, de lo contrario, usar la interfaz de ChatGPT a través de su sitio web.