FL Гид
bda_report_2.webp
Дата
Просмотрено
eye 525
Новости компании

АБД и компания Guardora выпустили доклад о технологии федеративного обучения

Ассоциация больших данных совместно с компаниями Guardora и Privacy Advocates выпустила аналитический доклад  «Конфиденциальные вычисления и доверенные среды исполнения. Federated Learning», посвященный применению федеративного обучения как наиболее эффективного метода безопасного использования данных для обучения моделей машинного обучения.

Документ освещает потенциал FL для улучшения качества моделей машинного обучения за счёт использования в обучении и инференсе ML-моделей конфиденциальных данных с соблюдением норм действующего законодательства и внутренних норм компаний о защите данных.

«Федеративное обучение открывает возможности для обмена знаниями между участниками рынка данных: компании могут совместно использовать машинное обучение на распределённых данных, делясь лишь фактически отклонениями в наблюдаемой статистике, не нарушая правовых и этических рамок. Это особенно важно в высокорегулируемых отраслях — таких как финансы, ритейл, телеком — где ценность данных максимальна, а доступ к ним ограничен. Такая технология позволяет строить доверие между участниками рынка и ускоряет цифровую трансформацию на отраслевом уровне», – отметил Исполнительный директор Ассоциации больших данных Алексей Нейман.

Доклад включает обзор технологии и перспектив её развития, практические кейсы применения федеративного обучения, а также анализ соответствия требованиям регуляторов в области защиты персональных данных.

Технический руководитель Guardora Олег Фатюхин подчёркивает: «Концепция федеративного обучения позволяет свести к минимуму риск непосредственной утечки данных, поскольку исключает передачу участниками обучения друг другу исходных данных, включая персональные данные. В своих продуктах Guardora дополнительно шифрует передаваемые в рамках федеративного обучения результаты работы локальных ML-моделей. Это обеспечивает защиту данных участников федеративного обучения друг от друга. Таким образом обеспечивается полная защита данных».

CEO Privacy Advocates Алексей Мунтян обращает внимание: «Широкое распространение ИИ-систем создает дополнительные потребности в качественных датасетах для обучения ML-моделей, в том числе на основе имеющихся у компаний персональных данных. Технологии федеративного обучения позволяют обеспечить необходимый уровень защиты персональных данных и отсутствия доступа со стороны третьих лиц, тем самым способствуя развитию современных отечественных ИИ-технологий».

Аналитический доклад стал частью «Библиотеки больших данных АБД» — платформы, где публикуются практико-ориентированные материалы о технологиях обработки данных. В дальнейшем Библиотека будет пополняться новыми исследованиями, которые помогут компаниям внедрять инновационные решения, развивать партнёрства и адаптироваться к вызовам экономики данных.

logo

Последние статьи

все статьи
statya2-min.webp

Большие языковые модели и эффект случайного попутчика

Психолог Зик Рубин ввел термин «эффект случайного попутчика», чтобы описать склонность людей делиться личной информацией с незнакомцами, которых они вряд ли встретят снова.

eye 1 076
logo
statya3-min.webp

Врачебная тайна и конфиденциальность данных в машинном обучении

Здравоохранение ― это одна из областей, где высоко востребованы машинное обучение и конфиденциальные вычисления.

eye 2 306
logo
statya4-min.webp

Роевой интеллект и технологии повышения конфиденциальности

Как технологии повышения конфиденциальности могут помочь преодолеть проблемы развития и применения роевого интеллекта?

eye 1 001
logo
все статьи
Подпишитесь
на наши новости