LLMs Segurança – Parte 1
setembro 2, 2024 § Deixe um comentário
Primeiro vídeo a respeito do tema segurança (cybersecurity) em LLMs. Abaixo, os links comentados no material:
Jailbreaking em LLMs: https://www.lakera.ai/blog/jailbreaking-large-language-models-guide
Paper “Jailbroken: How Does LLM Safety Training Fail?”: https://arxiv.org/abs/2307.02483
Paper “Universal and Transferable Adversarial Attacks on Aligned Language Models”: https://arxiv.org/abs/2307.15043
Post “12 prompt engineering techniques”: https://cobusgreyling.medium.com/12-prompt-engineering-techniques-644481c857aa
Deixe um comentário