Одна ML-модель — и много учителей ?
На VK JT анонсировали решение на базе вертикального федеративного обучения, которое позволит компаниям совместно обучать ИИ-модели без обмена данными.
Что это значит? В первую очередь — куда более эффективное обучение любой ML-модели, которая будет получать данные сразу из нескольких источников, заинтересованных в её эффективности. Это могут быть самые разные данные с разных серверов, но ML-модель получит промежуточные зашифрованные вычисления, так что исходники останутся приватными.
Такие новости — от руководителя группы Data Science в VK Predict Артёма Агафонова. Совсем скоро поделимся записью трансляции — можно будет узнать подробности.
#it@vkteam #VKPredict@vkteam