Exposition de modèle “as a Service”
Usecase: Détection de défaut de production (modèle DL)

Missions

  • Un modèle d'IA étant un objet (artefact) vivant dans le temps, sa mise en production est spécifique et va soulever diverses problématiques: son monitoring, sa maintenance, son réentrainement, son évaluation, son versionning…On va donc s'intéresser aux différents outils/frameworks qui permettent d’exposer un modèle, les comparer et en choisir un pour déployer notre usecase.

Conditions

Type of internship:Stage de fin d'études
Location:Paris
Salary:1500 € bruts
Date:2021

Profile

  • Un profil Data Scientist avec une forte appétence DevOps (ou l’inverse),
  • F/H
  • Vous êtes fluent en python et à l’aise avec Unix
  • Vous êtes familier(ère) avec les frameworks de DL (Tensorflow et PyTorch)
  • Vous êtes capable de travailler en autonomie et de prendre des initiatives
  • Vous n'avez pas peur de lire de la documentation
  • Vous avez déjà été confronté(e) aux problématiques de déploiement d’un modèle (ML ou DL)
  • Vous avez un intérêt pour les concepts de clean code / clean archi
  • Vous êtes intéressé(e) par le développement d’une solution innovante de A à Z

Context

Les sujets de data science sont de plus de plus matures dans l’industrie. Il y a aujourd’hui une forte volonté d’embarquer de l’IA au sein des moyens de production. Nous chercherons à déployer nos modèles de manière modulaire et flexible via la création d’un micro-service.

Internship target

Intro: Qu’est ce que l’exposition d’un modèle ? Quelles sont les différentes stratégies d’exposition ?

1 - Etudes bibliographiques et Benchmark

- Définir les critères qui permettront de sélectionner le framework au plus gros potentiel (Pérennité, Coûts, Flexibilité, Scope…)
- Réaliser le benchmark des différents frameworks d’exposition (Tensorflow serving, Sagemaker, MLflow, Kubeflow, Seldon, Cortex, Clipper, BentoML…)

2 - Usecase: Détection de défauts de production

- Définir le stack de notre usecase
- Développement et déploiement de la solution
- Etudier la scalabilité de la solution d’exposition

Rappel: Use case d’exposition mais pas que… l’idée c’est aussi de voir comment gérer les sujets connexes à l’exposition tels que le déploiement, la documentation, le management (versioning, repository), le tracking & le monitoring (logs, metrics), la maintenance (availability)..

3 - Publication

- Code documenté sur Gitlab
- Article sur le blog d’octo
- Talk (BBL)

Pour postuler : recrutement-stage@octo.com

Management

Vous serez encadré(e) par un consultant de la tribu AUGI (Augmented Industry), vous aurez des réunions de suivi hebdomadaires. Vous serez en contact régulier avec d'autres stagiaires de la tribu ML Engineering. Vous aurez également le soutien de la communauté en cas de difficultés techniques, dans la plus pure tradition OCTO.