WEBREVIEW
Accueil > Informatique, science de l’information et bibliothéconomie > RIST > Volume 14 > Volume 14

Volume 14

Articles de cette rubrique


Système d’aide à la décision : outil d’analyse multidimensionnelle utilisant la technologie OLAP

Face à la mondialisation de l’informatique décisionnelle et à la concurrence grandissante, la prise de décision est devenue cruciale pour les dirigeants d’entreprises. L’efficacité de cette prise de décision repose sur la mise à disposition d’informations pertinentes et d’outils adaptés. Le problème des entreprises est l’exploitation efficace du volume important d’informations, provenant soit de leurs systèmes opérationnels, soit de leur environnement extérieur ; pour supporter la prise de décision. Ceci dit, les systèmes de gestion de données traditionnels s’avèrent inadaptés à l’activité de prise de décision. Afin de pallier cet inconvénient, des systèmes d’aide à la décision ont été développés dont le principal objectif est de permettre à un utilisateur d’accéder de manière simple et ergonomique à un serveur de données et de valoriser l’information récupérée.
L’objectif de ce travail est de fournir les éléments nécessaires à la conception et la réalisation d’un système d’analyse multidimensionnelle, destiné à l’aide à la décision, basé sur le concept du Data
Mart et la technologie OLAP (On Line Analytical Processing).



Un système de reformulation de requêtes pour la recherche d’information

Les performances d’un système de recherche d’information (SRI) se mesurent par la qualité des réponses fournies à l’utilisateur. Or la qualité de ces réponses dépend étroitement de la capacité du système à représenter les documents et les requêtes d’une part et de la puissance des algorithmes de recherche d’autre part.
L’adaptation d’un SRI aux besoins de l’utilisateur par le biais du traitement de sa requête s’avère être une approche prometteuse pour faire converger le processus de recherche bien que relativement peu de travaux aient été effectués dans ce domaine.
Nous présentons dans cet article un système de reformulation de requêtes basé sur une approche interactive pour l’expansion de la requête de l’utilisateur.



Le BackTracking intelligent distribué optimal

La recherche dans les Problèmes de Satisfaction de Contraintes Distribués (DCSP) est historiquement partagée en deux classes distinctes de méthodes. La première consiste à la recherche d’une solution en utilisant la méthode de Backtrack. La deuxième est la consistance locale, en particulier la consistance d’arc [8]. Dans ce cadre et à partir de l’algorithme Intelligent BackTracking Distribué (DIBT) [7], nous avons proposé une Généralisation Optimale en envoi de messages (OGDIBT) [1], [4]. Malheureusement, DIBT n’est pas complet [5]. Ce papier tente d’étudier la complétude de OGDIBT en proposant une version complète.



Codage canal :codes correcteurs d’erreurs

La communication à distance, entre machines et usagers nécessite des lignes de transmission acheminant l’information sans la modifier. Les lignes utilisées sont en général loin d’être parfaites. Pour cela, l’information devra être codée d’une manière spéciale permettant de déceler les erreurs, ou ce qui est encore mieux de les corriger automatiquement. On a été amené à concevoir des codes détecteurs et correcteurs d’erreurs.
La construction d’un mot de code comportant n bits est effectuée à partir de k bits du message source k-uplet binaires U=(u1,u2,u3,.....uk), appelé généralement message d’information, et de r bits de redondance. La méthode de codage la plus simple consiste à laisser inchangés les k bits d’information et à les reporter tels quels dans le mot de code en ajoutant les r bits de redondance a1,a2,...,ar.
Les codes de ce type sont dits systématiques, un codeur qui transforme chaque message U indépendamment en n-uplet, le vecteur ligne VT appelé mot code autrement dit il y a 2k messages différents :

VT= v1 v2 ... vn = u1,u2,u3,.....uk a1,a2,...,ar 
Les bits de redondance a=a1,a2,...,ar sont généralement appelés bits de contrôle.

• Lorsque ces derniers sont calculés uniquement à partir des bits d’information du bloc auquel ils appartiennent, le code est appelé code de bloc ( n , k ), c’est à dire que les n symboles des mots codes sortant dépendent seulement des k bits en entrée correspondants, on dit alors que le codeur est sans mémoire et peut être implémenté par un circuit logique combinatoire.

• Lorsque les bits de contrôle sont calculés à partir des bits d’information appartenant à plusieurs blocs, le code est dit convolutionnel ou récurrent.
On caractérise aussi les codes par leur capacité de correction d’erreurs. En général on a deux types de catégories :

• Ceux qui luttent bien contre les erreurs isolées.

• Ceux qui sont bien adaptés aux coupures (paquet d’erreurs).

Mais, lorsqu’on veut un système de codage puissant, on peut envisager deux (ou plus) niveaux de codage (concaténation série), l’un lutte contre les paquets d’erreurs (Burst) et l’autre
lutte contre les erreurs isolées, dans le but d’exploiter les avantages du premier code pour minimiser les inconvénients du deuxième et/ou l’inverse, afin de reconstituer l’information émise avec beaucoup plus de fidélité.



Du Cursus traditionnel centre sur les cours magistraux vers l’apprentissage par problèmes

L’usage exclusif de méthodes traditionnelles ne privilégie pas la transmission de l’information au détriment de la formation elle-même. À quoi sert en effet une tête bien pleine si l’apprenant a beaucoup de difficultés à traduire ses connaissances en actes (transferts de connaissances et résolution de problèmes), à communiquer ses idées, à travailler efficacement en équipe, à poursuivre sa formation de façon autonome ?L’APP apparaît, en théorie pour le moins, comme une méthode d’enseignement extrêmement intéressante. Mais est-ce que la moisson est aussi abondante qu’elle le promettait ? Est-ce que l’APP enseigne effectivement la résolution des problèmes, transmet efficacement les connaissances, augmente la motivation, incite à l’auto-apprentissage mieux que l’enseignement traditionnel ?
Invariablement, les réponses sont « grises », les comparaisons s’avèrent difficiles, les différences peu interprétables .Cet article tente de faire le point sur ces questions.



Le Management de l’information : une dimension stratégique et organisationnelle

L’article cherche à définir la dimension stratégique et organisationnelle dans le management de l’information. Il fournit également les résultats d’une enquête à l’Office National des Transports au Maroc, et qui met en évidence ces deux dimensions.



تكنولوجيا المعلومات في المكتبات الجزائرية بين الرغبة في التغيير والصعوبات

إن الحديث عن تكنولوجيا المعلومات في المكتبات الجزائرية، يقودنا بالدرجة الأولى إلى استعراض وضعية هذه المكتبات، وحاجتها إلى تطبيق أنظمة حديثة، تنسجم مع الزيادة الكبيرة في أرصدتها الوثائقية. وكذا مسايرة التطورات المتلاحقة، المتعلقة بالتحكم في المعلومات من خلال تجميعها، ومعالجتها، وتخزينها، وتوزيعها إلى فئات عريضة من المستفيدين الذين تتزايد احتياجاتهم إلى المعلومات بشكل دائم ومستمر. غير أن الاستفادة من تطبيقات التكنولوجيا الحديثة في المكتبات الجزائرية، لم يكن موفقا بشكل عام، لغياب العديد من المقومات أهمها انعدام التنسيق فيما بينها، حتى على مستوى المكتبات من النوع الواحد، كالمكتبات الجامعية على سبيل المثال. دون أن نهمل الجوانب الأخرى المتعلقة بغياب الإرادة لدى المشرفين عليها، ونقص المخصصات المالية، ومقاومة التغيير لدى العاملين بها، وغيرها.
إن النهوض بقطاع المعلومات في الجزائر، وتحقيق التشابك بين مؤسساته الوثائقية، لا يتم من دون أتمتة جميع أنشطتها الوثائقية، وإنتاج قواعد معلومات بيبليوغرافية ونصية، واقتناء المنشورات الإلكترونية، ورقمنة وثائقها الهامة. ويستوجب ذلك تبني سياسة وطنية واضحة ودقيقة للمعلومات، إذا أردنا الحفاظ على مستوى الهوة الموجودة بيننا وبين العالم المتقدم.



Algorithme de Contrôle réactif de la congestion sur un nœud ATM

L’ATM, est l’un des modes de transmission envisagé pour les autoroutes de l’information de l’avenir. Son étude pose de nombreux problèmes techniques ; aussi nombreux que complexes et variés. Parmi ceux-ci l’apparition de la congestion sur un nœud du réseau. Le contrôle de la congestion est l’un des aspects fondamentaux de la conception d’un réseau de transmission ATM, dont dépendent fortement les performances de ce réseau (délai, variations de délai, bande passante, etc.) et par conséquent la qualité de service. Cet article, aborde ce problème et analyse le phénomène de la congestion. Il propose un algorithme d’adaptation du débit des sources avec l’évolution de l’état de congestion du nœud par une approche réactive.



Les Algorithmes génétiques Application à la segmentation des images

Les algorithmes génétiques ont des propriétés qui en font des candidats de choix pour résoudre des problèmes d’optimisation dans lesquels la taille de l’espace de recherche est importante, où les paramètres interagissent de manière complexe et où très peu d’informations sur la fonction à optimiser sont disponibles. Ces propriétés ont motivé leur application à divers domaines. Dans ce papier, nous présentons les fondements des AGs ; les travaux récents effectués en analyse d’images et plus particulièrement en segmentation ; nous étudions en détails et appliquons un algorithme non supervisé de segmentation, nous l’améliorons en proposant un nouvel opérateur de mutation. Et avec le multiseuillage par Fisher, nous l’avons adapté à la détection des corps cellulaires dans des images de cellules biologiques du col.



Data mining spatial Un problème de data mining multi-tables

La principale caractéristique du data mining spatial est qu’il considère les relations spatiales. Ces relations sont à l’origine implicites et nécessitent des jointures spatiales complexes et coûteuses sur des critères spatiaux pour être exhibées. Nous avons proposé dans nos travaux antérieurs de les rendre explicites en utilisant une structure secondaire dite ²index de jointure spatiale² Erreur ! Source du renvoi introuvable.. L’idée est de pré-calculer les relations spatiales exactes entre les localisations de deux collections d’objets spatiaux et de les stocker dans une table secondaire de type (objet1, objet2, relation spatiale). Dès lors, les relations spatiales sont traduites dans un schéma relationnel
classique et les jointures spatiales s’expriment par des jointures relationnelles via l’index de jointure spatiale. Outre le fait que cette jointure via l’index est bien plus performante qu’une jointure spatiale, cette organisation relationnelle ramène la data mining spatial à un cadre plus général, dit data mining multi-tables. Contrairement au data mining classique où les données en entrée sont représentées dans une table unique où chaque tuple constitue une observation à analyser, la data mining multi-tables traite des données organisées dans plusieurs tables et exploite les liens logiques entre ces tables.
Pour résoudre ce problème multi-tables et pour faire du data mining spatial, nous proposons, dans cet article, une approche en deux étapes. La première étape transforme, grâce à un opérateur CROISEMENT que nous proposons, la structure multi-tables des données en une table unique tout en gardant des informations sur le voisinage et les relation spatiales. L’idée de cet opérateur est de compléter, et non de joindre, la table à analyser par les données présentes dans les autres tables. La seconde étape applique une méthode traditionnelle de data mining. Cet article présentera cette approche et cet opérateur. Il décrira leur application à la classification supervisée par arbre de décision spatial et il présentera les expérimentations réalisées et les résultats obtenus sur l’analyse du risque d’accident routiers.



| info visites 2322115

Suivre la vie du site fr  Suivre la vie du site Informatique, science de l’information et bibliothéconomie  Suivre la vie du site RIST  Suivre la vie du site Volume 14   ?

Creative Commons License