![]() | ... Le "in memory" ... la suite |
| ||||||||||||||||||||||||||
| Existerait-il une défiance de la part des grandes entreprises vis à vis de la technologie 'In memory' ? La technologie 'In memory' peut en effet, se concevoir à deux niveaux : 1°) Les données sont chargées depuis la/les sources de données sur la mémoire du serveur d'application et peuvent ensuite être restituées à la demande sur le poste client. Elles sont stockées et agencées selon un schéma propriétaire. L'avantage réside bien entendu, dans les temps de réponse extrêmement courts procurés par la lecture en mémoire lors des associations, sélections, rafraichissements, filtrages, déplacements... aux dépends du temps de chargement initial. L'interface utilisateur final est dans ce cas spécifique à la solution, et procure une importante liberté à l'utilisateur final. 2°) Les données sont prises en charges par le serveur de données, et chargées en mémoire par celui-ci. La mémoire constituant ici une 'extension' du serveur de données, directement et nativement prise en charge par celui-ci. Cette méthode permet également des temps d'accès courts, mais avec une connectivité standardisée (Odbc, Jdbc) ainsi que le privilège de conserver l'application frontale d'entreprise et ses prérogatives structurantes. C'est dans la première catégorie que s'illustrent les outils dits 'In memory' actuels. Utilisées principalement dans des fonctions financières ou marketing par des utilisateurs avancés qui sélectionnent et manipulent des plages de données, elles restent inadaptées à des applications globales de reporting d'entreprise distribuant tableaux de pilotage et rapports personnalisés à des groupes d'utilisateurs internes et externes à l'organisation. Latitudes-B.I a, depuis le début de son existence, adopté l'interrogation directe des sources de données tirant ainsi parti de l'existant d'une part. et valorisant le rôle de chaque tier dans le cadre d'une architecture distribuée : les données sont rendues disponibles par le serveur de données dans un format ouvert et standardisé, le serveur d'application met en œuvre son moteur pour permettre toute sélection et mise en forme dynamique sans aucune altération de la source de données, le client restitue la sélection mise en forme dans une page web de quelques Ko. | |||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||
![]() |
... Le "in memory" ... la suite |
Existerait-il une défiance de la part des grandes entreprises vis à vis de la technologie 'In memory' ? La technologie 'In memory' peut en effet, se concevoir à deux niveaux : 1°) Les données sont chargées depuis la/les sources de données sur la mémoire du serveur d'application et peuvent ensuite être restituées à la demande sur le poste client. Elles sont stockées et agencées selon un schéma propriétaire. L'avantage réside bien entendu, dans les temps de réponse extrêmement courts procurés par la lecture en mémoire lors des associations, sélections, rafraichissements, filtrages, déplacements... aux dépends du temps de chargement initial. L'interface utilisateur final est dans ce cas spécifique à la solution, et procure une importante liberté à l'utilisateur final. 2°) Les données sont prises en charges par le serveur de données, et chargées en mémoire par celui-ci. La mémoire constituant ici une 'extension' du serveur de données, directement et nativement prise en charge par celui-ci. Cette méthode permet également des temps d'accès courts, mais avec une connectivité standardisée (Odbc, Jdbc) ainsi que le privilège de conserver l'application frontale d'entreprise et ses prérogatives structurantes. C'est dans la première catégorie que s'illustrent les outils dits 'In memory' actuels. Utilisées principalement dans des fonctions financières ou marketing par des utilisateurs avancés qui sélectionnent et manipulent des plages de données, elles restent inadaptées à des applications globales de reporting d'entreprise distribuant tableaux de pilotage et rapports personnalisés à des groupes d'utilisateurs internes et externes à l'organisation. Latitudes-B.I a, depuis le début de son existence, adopté l'interrogation directe des sources de données tirant ainsi parti de l'existant d'une part. et valorisant le rôle de chaque tier dans le cadre d'une architecture distribuée : les données sont rendues disponibles par le serveur de données dans un format ouvert et standardisé, le serveur d'application met en œuvre son moteur pour permettre toute sélection et mise en forme dynamique sans aucune altération de la source de données, le client restitue la sélection mise en forme dans une page web de quelques Ko. |