Наша команда занимается оценкой защищенности всего процесса создания моделей искусственного интеллекта, от сбора датасетов до эксплуатации. В нашем фокусе прежде всего большие языковые модели (LLM) и биометрические технологии (CV)
Если такие словосочетания как «атаки на предъявления», «промпт-атаки», «состязательные атаки», «отравление данных» и многие другие уязвимости машинного обучения вызывают у тебя интерес и желание развиваться в данной области, присоединяйся к нам!
Мы будем вместе исследовать и развивать безопасноcное машинное обучение