WEBREVIEW
Accueil > Informatique, science de l’information et bibliothéconomie > RIST > Volume 14 > Numéro 01 > Numéro 01

Numéro 01

Articles de cette rubrique


Système d’aide à la décision : outil d’analyse multidimensionnelle utilisant la technologie OLAP

Face à la mondialisation de l’informatique décisionnelle et à la concurrence grandissante, la prise de décision est devenue cruciale pour les dirigeants d’entreprises. L’efficacité de cette prise de décision repose sur la mise à disposition d’informations pertinentes et d’outils adaptés. Le problème des entreprises est l’exploitation efficace du volume important d’informations, provenant soit de leurs systèmes opérationnels, soit de leur environnement extérieur ; pour supporter la prise de décision. Ceci dit, les systèmes de gestion de données traditionnels s’avèrent inadaptés à l’activité de prise de décision. Afin de pallier cet inconvénient, des systèmes d’aide à la décision ont été développés dont le principal objectif est de permettre à un utilisateur d’accéder de manière simple et ergonomique à un serveur de données et de valoriser l’information récupérée.
L’objectif de ce travail est de fournir les éléments nécessaires à la conception et la réalisation d’un système d’analyse multidimensionnelle, destiné à l’aide à la décision, basé sur le concept du Data
Mart et la technologie OLAP (On Line Analytical Processing).



Un système de reformulation de requêtes pour la recherche d’information

Les performances d’un système de recherche d’information (SRI) se mesurent par la qualité des réponses fournies à l’utilisateur. Or la qualité de ces réponses dépend étroitement de la capacité du système à représenter les documents et les requêtes d’une part et de la puissance des algorithmes de recherche d’autre part.
L’adaptation d’un SRI aux besoins de l’utilisateur par le biais du traitement de sa requête s’avère être une approche prometteuse pour faire converger le processus de recherche bien que relativement peu de travaux aient été effectués dans ce domaine.
Nous présentons dans cet article un système de reformulation de requêtes basé sur une approche interactive pour l’expansion de la requête de l’utilisateur.



Le BackTracking intelligent distribué optimal

La recherche dans les Problèmes de Satisfaction de Contraintes Distribués (DCSP) est historiquement partagée en deux classes distinctes de méthodes. La première consiste à la recherche d’une solution en utilisant la méthode de Backtrack. La deuxième est la consistance locale, en particulier la consistance d’arc [8]. Dans ce cadre et à partir de l’algorithme Intelligent BackTracking Distribué (DIBT) [7], nous avons proposé une Généralisation Optimale en envoi de messages (OGDIBT) [1], [4]. Malheureusement, DIBT n’est pas complet [5]. Ce papier tente d’étudier la complétude de OGDIBT en proposant une version complète.



Codage canal :codes correcteurs d’erreurs

La communication à distance, entre machines et usagers nécessite des lignes de transmission acheminant l’information sans la modifier. Les lignes utilisées sont en général loin d’être parfaites. Pour cela, l’information devra être codée d’une manière spéciale permettant de déceler les erreurs, ou ce qui est encore mieux de les corriger automatiquement. On a été amené à concevoir des codes détecteurs et correcteurs d’erreurs.
La construction d’un mot de code comportant n bits est effectuée à partir de k bits du message source k-uplet binaires U=(u1,u2,u3,.....uk), appelé généralement message d’information, et de r bits de redondance. La méthode de codage la plus simple consiste à laisser inchangés les k bits d’information et à les reporter tels quels dans le mot de code en ajoutant les r bits de redondance a1,a2,...,ar.
Les codes de ce type sont dits systématiques, un codeur qui transforme chaque message U indépendamment en n-uplet, le vecteur ligne VT appelé mot code autrement dit il y a 2k messages différents :

VT= v1 v2 ... vn = u1,u2,u3,.....uk a1,a2,...,ar 
Les bits de redondance a=a1,a2,...,ar sont généralement appelés bits de contrôle.

• Lorsque ces derniers sont calculés uniquement à partir des bits d’information du bloc auquel ils appartiennent, le code est appelé code de bloc ( n , k ), c’est à dire que les n symboles des mots codes sortant dépendent seulement des k bits en entrée correspondants, on dit alors que le codeur est sans mémoire et peut être implémenté par un circuit logique combinatoire.

• Lorsque les bits de contrôle sont calculés à partir des bits d’information appartenant à plusieurs blocs, le code est dit convolutionnel ou récurrent.
On caractérise aussi les codes par leur capacité de correction d’erreurs. En général on a deux types de catégories :

• Ceux qui luttent bien contre les erreurs isolées.

• Ceux qui sont bien adaptés aux coupures (paquet d’erreurs).

Mais, lorsqu’on veut un système de codage puissant, on peut envisager deux (ou plus) niveaux de codage (concaténation série), l’un lutte contre les paquets d’erreurs (Burst) et l’autre
lutte contre les erreurs isolées, dans le but d’exploiter les avantages du premier code pour minimiser les inconvénients du deuxième et/ou l’inverse, afin de reconstituer l’information émise avec beaucoup plus de fidélité.



Du Cursus traditionnel centre sur les cours magistraux vers l’apprentissage par problèmes

L’usage exclusif de méthodes traditionnelles ne privilégie pas la transmission de l’information au détriment de la formation elle-même. À quoi sert en effet une tête bien pleine si l’apprenant a beaucoup de difficultés à traduire ses connaissances en actes (transferts de connaissances et résolution de problèmes), à communiquer ses idées, à travailler efficacement en équipe, à poursuivre sa formation de façon autonome ?L’APP apparaît, en théorie pour le moins, comme une méthode d’enseignement extrêmement intéressante. Mais est-ce que la moisson est aussi abondante qu’elle le promettait ? Est-ce que l’APP enseigne effectivement la résolution des problèmes, transmet efficacement les connaissances, augmente la motivation, incite à l’auto-apprentissage mieux que l’enseignement traditionnel ?
Invariablement, les réponses sont « grises », les comparaisons s’avèrent difficiles, les différences peu interprétables .Cet article tente de faire le point sur ces questions.



Le Management de l’information : une dimension stratégique et organisationnelle

L’article cherche à définir la dimension stratégique et organisationnelle dans le management de l’information. Il fournit également les résultats d’une enquête à l’Office National des Transports au Maroc, et qui met en évidence ces deux dimensions.



تكنولوجيا المعلومات في المكتبات الجزائرية بين الرغبة في التغيير والصعوبات

إن الحديث عن تكنولوجيا المعلومات في المكتبات الجزائرية، يقودنا بالدرجة الأولى إلى استعراض وضعية هذه المكتبات، وحاجتها إلى تطبيق أنظمة حديثة، تنسجم مع الزيادة الكبيرة في أرصدتها الوثائقية. وكذا مسايرة التطورات المتلاحقة، المتعلقة بالتحكم في المعلومات من خلال تجميعها، ومعالجتها، وتخزينها، وتوزيعها إلى فئات عريضة من المستفيدين الذين تتزايد احتياجاتهم إلى المعلومات بشكل دائم ومستمر. غير أن الاستفادة من تطبيقات التكنولوجيا الحديثة في المكتبات الجزائرية، لم يكن موفقا بشكل عام، لغياب العديد من المقومات أهمها انعدام التنسيق فيما بينها، حتى على مستوى المكتبات من النوع الواحد، كالمكتبات الجامعية على سبيل المثال. دون أن نهمل الجوانب الأخرى المتعلقة بغياب الإرادة لدى المشرفين عليها، ونقص المخصصات المالية، ومقاومة التغيير لدى العاملين بها، وغيرها.
إن النهوض بقطاع المعلومات في الجزائر، وتحقيق التشابك بين مؤسساته الوثائقية، لا يتم من دون أتمتة جميع أنشطتها الوثائقية، وإنتاج قواعد معلومات بيبليوغرافية ونصية، واقتناء المنشورات الإلكترونية، ورقمنة وثائقها الهامة. ويستوجب ذلك تبني سياسة وطنية واضحة ودقيقة للمعلومات، إذا أردنا الحفاظ على مستوى الهوة الموجودة بيننا وبين العالم المتقدم.



A Perceptual image coding method of high compression rate

In the framework of the image compression by Wavelet Transforms, we propose a perceptual method by incorporating Human Visual System (HVS) characteristics in the quantization stage. Indeed, human eyes haven’t an equal sensitivity across the frequency bandwidth. Therefore, the clarity of the reconstructed images can be improved by weighting the quantization according to the Contrast Sensitivity Function (CSF). The visual artifact at low bit rate is minimized. To evaluate our method, we use the Pick Signal to Noise Ratio (PSNR) and a new evaluating metric witch takes into account visual criteria. The experimental results illustrate that our technique shows improvement on image quality at the same compression ratio.



U_VBOOM : une méthode d’analyse et conception unifiée orientée objet

L’expression de représentations multiples ou du concept de vue/point de vue dans la modélisation orientée objet a suscité de nombreuses recherches. L’un des résultats les plus aboutis est celui de VBOOL (View Based Object-Oriented Language) qui a intégré une nouvelle relation appelée « relation de visibilité » au sein d’une extension d’Eiffel. Dans le même contexte, une méthode d’analyse et de conception par objet VBOOM (View Based Object Oriented Method) supportant les concepts de vue et point de vue a été élaborée et cible le langage VBOOL. L’objectif de ce travail, est de proposer une méthode d’analyse et conception unifiée orientée point de vue dans le but d’avoir un processus de génie logiciel orienté point de vue complet d’UML (Unified Modelling Language). La base d’élaboration de la nouvelle méthode (appelée U_VBOOM) s’inspire essentiellement de la méthode VBOOM et offre un formalisme étendant celui d’UML. Et pour que la nouvelle méthode U_VBOOM cible les langages orientés objet les plus utilisés dans le marché comme C++, Java, Eiffel, etc. nous proposons une approche d’implémentation multi-cibles de la relation de visibilité.



| info visites 2122284

Suivre la vie du site fr  Suivre la vie du site Informatique, science de l’information et bibliothéconomie  Suivre la vie du site RIST  Suivre la vie du site Volume 14  Suivre la vie du site Numéro 01   ?

Creative Commons License