Zero-Shot Spam Email Classification Using Pre-trained Large Language Models
Objetivo
Explorar el uso de modelos de lenguaje preentrenados (LLMs) para clasificar correos electrónicos como spam o no spam sin necesidad de entrenamiento específico, utilizando un enfoque zero-shot.
Metodología
- Uso de modelos de lenguaje preentrenados (ej. GPT)
- Aplicación de Zero-Shot Learning (ZSL):
- Clasificación sin entrenamiento previo en el dataset específico
- Evaluación del modelo en:
- Diferentes tipos de correos spam
- Escenarios con patrones desconocidos
- Comparación implícita con enfoques tradicionales de:
- Machine Learning supervisado
Resultados
- Capacidad de los LLMs para:
- Detectar spam sin entrenamiento específico
- Buen desempeño en:
- Identificación de nuevos patrones de spam
- Ventaja clave:
- Eliminación de la necesidad de datasets etiquetados
- Limitaciones:
- Dependencia del modelo preentrenado
- Posible variabilidad en precisión según el tipo de correo
En general, los resultados muestran que el enfoque zero-shot es viable y flexible frente a métodos tradicionales
Trabajo futuro
- Evaluación con:
- Datasets más grandes y reales
- Comparación directa con:
- Modelos supervisados tradicionales
- Optimización de:
- Prompts para mejorar precisión
- Extensión a:
- Otros problemas de clasificación de texto
- Sistemas de detección en tiempo real












