... Le "in memory" ... la suite

Existerait-il une défiance de la part des grandes entreprises vis à vis de la technologie 'In memory' ?
L'importance de la volumétrie, la liberté laissée à l'utilisateur pour manipuler ses données et les interpréter,  constituent-ils un frein à l'adoption de cette technologie ? 
Ce que nous constatons en effet sur le terrain, ce sont des déploiements départementaux, dédiés à une fonction précise.

La technologie 'In memory' peut en effet, se concevoir à deux niveaux :

1°) Les données sont chargées depuis la/les sources de données sur la mémoire du serveur d'application et peuvent ensuite être restituées à la demande sur le poste client. Elles sont stockées et agencées selon un schéma propriétaire. L'avantage réside bien entendu, dans les temps de réponse extrêmement courts procurés par la lecture en mémoire lors des associations, sélections, rafraichissements, filtrages, déplacements... aux dépends du temps de chargement initial.
L'interface utilisateur final est dans ce cas spécifique à la solution, et procure une importante liberté à l'utilisateur final. 

2°) Les données sont prises en charges par le serveur de données, et chargées en mémoire par celui-ci. La mémoire constituant ici une 'extension' du serveur de données, directement et nativement prise en charge par celui-ci. Cette méthode permet également des temps d'accès courts, mais avec une connectivité standardisée (Odbc, Jdbc) ainsi que le privilège de conserver l'application frontale d'entreprise et ses prérogatives structurantes. 

C'est dans la première catégorie que s'illustrent les outils dits 'In memory' actuels.
Utilisées principalement dans des fonctions financières ou marketing par des utilisateurs avancés qui sélectionnent et manipulent des plages de données, elles restent inadaptées à des applications globales de reporting d'entreprise distribuant tableaux de pilotage et rapports personnalisés à des groupes d'utilisateurs internes et externes à l'organisation.
Latitudes-B.I a, depuis le début de son existence, adopté l'interrogation directe des sources de données tirant ainsi parti de l'existant d'une part. et valorisant le rôle de chaque tier dans le cadre d'une architecture distribuée : les données sont rendues disponibles par le serveur de données dans un format ouvert et standardisé, le serveur d'application met en œuvre son moteur pour permettre toute sélection et mise en forme dynamique sans aucune altération de la source de données, le client restitue la sélection mise en forme dans une page web de quelques Ko.