DATA Management par Quynh Anh Verger

DATA Management

par Quynh Anh VERGER

Le Data Management

 

Trop longtemps considéré uniquement comme un centre de coûts, le Data Management a aujourd’hui une importance primordiale au sein des entreprises financières. Il est constitué de l’ensemble des processus mis en place pour collecter, stocker, valider, manipuler, maintenir et garantir la prise en compte correcte, optimisée et fiable des données au sein d’un référentiel.

Au centre du système d’information, le référentiel unifiera les besoins de toutes les entités de l’entreprise, réduira les risques d’incohérence d’une même information et limitera les coûts d’acquisition de la data.

 

Pourquoi est-il important ?

« Garbage In, Garbage Out » : la règle à éviter !

Un référentiel doit servir ses clients de données dont il est certain de la qualité, que ce soit sur des critères de valeurs, de cohérence ou de fraicheur.

Les clients branchés sur ces référentiels selon le principe maitre-esclave pourront bénéficier du travail réalisé par des experts Data et pourront alors se concentrer sur leur expertise propre.

Pour sa propre pérennité, il doit être évolutif afin de permettre l’alimentation de nouvelles informations rapidement et respecter les règles élémentaires de la normalisation au travers la non redondance des informations stockées.

Le respect de ces principes, en phase avec les objectifs de l'entreprise, sera la garantie de meilleures décisions avec un coût de market data optimisé.

 

Qu’est-ce qu’un Référentiel ?

Plusieurs référentiels mais toujours une même logique : administrer les caractéristiques de l’objet visé avec pour objectif de « tamponner » les données distribuables, au travers de processus de contrôles, toujours au service des clients finaux (différents services de l’entreprise). Ce tampon garantissant à ces derniers la qualité de la donnée et le fait qu’ils peuvent eux-mêmes se passer de nouveaux contrôles (hormis ceux de leur propre activité).

 

  • Référentiel Valeurs : regroupe l’ensemble des Titres et Contrats négociables par des gérants dans les systèmes. Ces données peuvent être :

- statiques (identiques durant toute la vie du Titre)

et

- dynamiques (qui évoluent quotidiennement). Ces informations sont alimentées de manière automatique, à des fréquences définies selon le type de donnée, par des flux providers (tels que Thomson Reuters, Bloomberg, SIX Telekurs, Interactive Data et autres).

  • Référentiel Produits : il regroupe toutes les caractéristiques des fonds chez un Asset Manager. Sa vocation est plus juridique et commerciale.

 

Le retour sur investissement

Pour remporter l’adhésion de tous, et du fait de sa transversalité, il faudra obligatoirement un fort sponsoring dans l’entreprise.

Le projet de Data Management aura effectivement un coût de mise en place qui peut paraitre important (surtout si toujours considéré comme un centre de coûts) mais sera d’autant plus vite rentabilisé si l’entreprise :

- connaissait initialement des problèmes de qualité de données,

- avait des coûts de Market Data élevés (cas de multiples abonnements à la même information, sans mutualisation, voire sans utilisation avérée )

- avait une incapacité à répondre à de nouveaux besoins L’approche Master Data Management permettra de mettre en place une vraie gouvernance de la donnée.

 

Chaque nouvelle entrée d’informations dans le SI devra obligatoirement faire l’objet d’une analyse permettant de la situer dans le SI (dans le référentiel car nécessaire à d’autres que le demandeur initial ? Si oui, dans lequel ?).

Il faudra en parallèle déterminer qui utilisera l’information, pour quel besoin, afin de déterminer la stratégie de collecte de l’information. Ceci aura pour effet de réduire le coût de mise en place et ainsi participer à améliorer le ROI du projet.

Dans la même optique, l’entreprise sera alors en capacité de répondre à un coût mesuré et surtout dans des délais courts aux demandes du législateur de plus en plus pointues et nombreuses, telles les contraintes réglementaires :

Solvency II : besoin de limiter les risques via une obligation de fonds propres

EMIR : besoin de transparence sur les produits dérivés

MIFID II : transparence des marchés financiers, protection de l’investisseur (combler les manques de MIFID I)

Egalement, il sera alors possible de procéder à des arbitrages de providers afin d’optimiser les coûts d’acquisition, au travers d'une meilleure connaissance des besoins finaux (du temps réel pourra être coupé au profit d’une alimentation End Of Day, des données coûteuses mais non utilisées seront abandonnées, etc).

 

Conclusion

Sous l’impulsion des métiers, en forte demande, les entreprises ont compris que l’investissement dans une politique réellement volontariste de Data Management était non seulement nécessaire mais surtout obligatoire, sous peine de se retrouver distancer de la concurrence.

Cela se traduit non seulement par des projets long terme, pour augmenter l’efficience du SI, mais également, et ce n’est pas qu’une histoire de sémantique, par le fait que les services de Data Management voient apparaitre dans leur dénomination le terme Quality !

 

Quynh Anh VERGER

En savoir plus sur Gestion projet informatique

Partager

Vous aimerez aussi

+
+
+