Zero-Shot Spam Email Classification Using Pre-trained Large Language Models

10/05/2026 11:03:45 PM

Zero-Shot Spam Email Classification Using Pre-trained Large Language Models

Objetivo

Explorar el uso de modelos de lenguaje preentrenados (LLMs) para clasificar correos electrónicos como spam o no spam sin necesidad de entrenamiento específico, utilizando un enfoque zero-shot.

Metodología

  • Uso de modelos de lenguaje preentrenados (ej. GPT)
  • Aplicación de Zero-Shot Learning (ZSL):
    • Clasificación sin entrenamiento previo en el dataset específico
  • Evaluación del modelo en:
    • Diferentes tipos de correos spam
    • Escenarios con patrones desconocidos
  • Comparación implícita con enfoques tradicionales de:
    • Machine Learning supervisado

Resultados

  • Capacidad de los LLMs para:
    • Detectar spam sin entrenamiento específico
  • Buen desempeño en:
    • Identificación de nuevos patrones de spam
  • Ventaja clave:
    • Eliminación de la necesidad de datasets etiquetados
  • Limitaciones:
    • Dependencia del modelo preentrenado
    • Posible variabilidad en precisión según el tipo de correo

En general, los resultados muestran que el enfoque zero-shot es viable y flexible frente a métodos tradicionales

Trabajo futuro

  • Evaluación con:
    • Datasets más grandes y reales
  • Comparación directa con:
    • Modelos supervisados tradicionales
  • Optimización de:
    • Prompts para mejorar precisión
  • Extensión a:
    • Otros problemas de clasificación de texto
    • Sistemas de detección en tiempo real