WEBREVIEW
Accueil > Informatique, science de l’information et bibliothéconomie > RIST > Volume 14 > Numéro 02 > Numéro 02

Numéro 02

Articles de cette rubrique


Algorithme de Contrôle réactif de la congestion sur un nœud ATM

L’ATM, est l’un des modes de transmission envisagé pour les autoroutes de l’information de l’avenir. Son étude pose de nombreux problèmes techniques ; aussi nombreux que complexes et variés. Parmi ceux-ci l’apparition de la congestion sur un nœud du réseau. Le contrôle de la congestion est l’un des aspects fondamentaux de la conception d’un réseau de transmission ATM, dont dépendent fortement les performances de ce réseau (délai, variations de délai, bande passante, etc.) et par conséquent la qualité de service. Cet article, aborde ce problème et analyse le phénomène de la congestion. Il propose un algorithme d’adaptation du débit des sources avec l’évolution de l’état de congestion du nœud par une approche réactive.



Les Algorithmes génétiques Application à la segmentation des images

Les algorithmes génétiques ont des propriétés qui en font des candidats de choix pour résoudre des problèmes d’optimisation dans lesquels la taille de l’espace de recherche est importante, où les paramètres interagissent de manière complexe et où très peu d’informations sur la fonction à optimiser sont disponibles. Ces propriétés ont motivé leur application à divers domaines. Dans ce papier, nous présentons les fondements des AGs ; les travaux récents effectués en analyse d’images et plus particulièrement en segmentation ; nous étudions en détails et appliquons un algorithme non supervisé de segmentation, nous l’améliorons en proposant un nouvel opérateur de mutation. Et avec le multiseuillage par Fisher, nous l’avons adapté à la détection des corps cellulaires dans des images de cellules biologiques du col.



Data mining spatial Un problème de data mining multi-tables

La principale caractéristique du data mining spatial est qu’il considère les relations spatiales. Ces relations sont à l’origine implicites et nécessitent des jointures spatiales complexes et coûteuses sur des critères spatiaux pour être exhibées. Nous avons proposé dans nos travaux antérieurs de les rendre explicites en utilisant une structure secondaire dite ²index de jointure spatiale² Erreur ! Source du renvoi introuvable.. L’idée est de pré-calculer les relations spatiales exactes entre les localisations de deux collections d’objets spatiaux et de les stocker dans une table secondaire de type (objet1, objet2, relation spatiale). Dès lors, les relations spatiales sont traduites dans un schéma relationnel
classique et les jointures spatiales s’expriment par des jointures relationnelles via l’index de jointure spatiale. Outre le fait que cette jointure via l’index est bien plus performante qu’une jointure spatiale, cette organisation relationnelle ramène la data mining spatial à un cadre plus général, dit data mining multi-tables. Contrairement au data mining classique où les données en entrée sont représentées dans une table unique où chaque tuple constitue une observation à analyser, la data mining multi-tables traite des données organisées dans plusieurs tables et exploite les liens logiques entre ces tables.
Pour résoudre ce problème multi-tables et pour faire du data mining spatial, nous proposons, dans cet article, une approche en deux étapes. La première étape transforme, grâce à un opérateur CROISEMENT que nous proposons, la structure multi-tables des données en une table unique tout en gardant des informations sur le voisinage et les relation spatiales. L’idée de cet opérateur est de compléter, et non de joindre, la table à analyser par les données présentes dans les autres tables. La seconde étape applique une méthode traditionnelle de data mining. Cet article présentera cette approche et cet opérateur. Il décrira leur application à la classification supervisée par arbre de décision spatial et il présentera les expérimentations réalisées et les résultats obtenus sur l’analyse du risque d’accident routiers.



XML_GFD : Un Générateur dynamique de Formulaires XLM Valides DTD

Actuellement, Internet est l’outil par excellence pour la diffusion et l’échange d’informations. Il est aujourd’hui au centre d’un ensemble de nouveaux besoins qui le placent au cœur d’un ensemble de défis technologiques. Une des conditions pour accomplir ces évolutions, est que la structuration et la description des données diffusées et échangées sur le Web doivent être rigoureuses et normalisées. De nouvelles technologies sont donc nécessaires. C’est pourquoi qu’un grand espoir est bâti sur la technologie XML qui est pressentie comme une solution aux insuffisances de HTML. Toutefois, et malgré la profusion d’éditeurs XML, tout le monde s’accorde à dire qu’ils sont dans leur majeure partie complexes et destinés à des usagers ayant des connaissances et des qualifications requises dans le domaine. Par conséquent, il en résulte pour les entreprises désirant s’approprier cette technologie, un coût de production élevé qui peut leurs représenter une contrainte insurmontable. Dans cet article, nous allons présenter un générateur dynamique de formulaires pour l’édition de documents Xml valides-DTD, qui se veut une solution pour une production accessible sans contrainte de profil et à moindre coût.



Comparative survey of the DCT and the wavelet transforms for image compression

In the framework of the image compression by coding the transformation, we studied two transformation techniques respectively used in the JPEG norms and JPEG2000 : The Discrete Cosine Transform (DCT) and the Wavelets Transform (WT). We also studied the influence of different coding techniques on the compression rate. We compare the performances of different wavelets. The set of the techniques that we implemented have been applied on different types of images. We verified the compromise that exists between the compression rate and the quality of the reconstructed picture. We noted that when we applies the wavelets transform, we succeeded best result that those found at the time of the application of the TCD and that the quality of reconstruction is better as one increases the order of the filter associated to the Daubechies wavelets.



دور نظم المعلومات في تحقيق ميزة تنافسية دراسة في القطاع الصناعي الجزائري

تهدف هذه الدراسة إلى التعرف على مدى توفر المتطلبات التنظيمية و التكنولوجية لنظم المعلومات في المؤسسات الصناعية الجزائرية، كما تهدف إلى معرفة مستوى استخدام نظم المعلومات في تحقيق ميزة تنافسية، و العلاقة الموجودة بين المتطلبات التنظيمية و التكنولوجية لنظم المعلومات و تحقيق الميزة التنافسية لهذه المؤسسات. و لتحقيق أهداف الدراسة تم استخدام أسلوب الاستبيان لجمع البيانات.
و اعتمد الباحثان على مجتمع دراسة يتكون من (14) مؤسسة صناعية جزائرية ، و قمنا بمسح شامل لمجتمع الدراسة، و كان عدد المؤسسات التي أبدت تعاونها (12) مؤسسة بنسبة (80.7%). كما استخدم الباحثان مجموعة من الأساليب الإحصائية المناسبة لتحليل البيانات كالمتوسطات الحسابية و الانحرافات المعيارية و معامل سبيرمان و استخدم اختبار الانحدار المتعدد التدرج و مقاييس الكفاءة النسبية.
و من أبرز النتائج التي تم التوصل إليها :

1. تتوفر لدى المؤسسات الصناعية الجزائرية المتطلبات التنظيمية لنظم المعلومات. كما تتوفر لدى هذه المؤسسات المتطلبات التكنولوجية لنظم المعلومات.

2. وجود علاقة إيجابية ذات دلالة إحصائية بين متطلبات نظم المعلومات التنظيمية و تحقيق الميزة التنافسية لهذه المؤسسات.

3. تساهم نظم المعلومات في تحقيق الميزة التنافسية للمؤسسات الصناعية الجزائرية و ذلك من خلال تأثيرها على أهم المتغيرات المتعلقة بالميزة التنافسية و هي جودة المنتجات، الأداء المالي للمؤسسات، السيطرة على الأسواق، الإبداع و التطوير، و كفاءة العمليات.

4. تختلف المؤسسات الصناعية الجزائرية في تنافسيتها النسبية، إذ تختلف الكفاءات النسبية لها من حيث استغلال جاهزيتها لتكنولوجيا المعلومات في تحقيق عوائد على المبيعات و في حصصها السوقية.
و ختاما، خلصت الدراسة إلى عدة توصيات بناء على نتائجها



الجوانب القانونية للمكتبة الفتراضية

L’évolution des technologies de l’information et de la communication a, dés la deuxième moitié de la décennie précédente, donné naissance à un nouveau type de bibliothèque, à savoir les bibliothèques virtuelles. Qui d’une part rapprochent l’utilisateur des multiples sources d’information, et lui permettent une meilleure accessibilité à l’information, d’une autre part. Cependant, la mise en place d’une bibliothèque virtuelle, comme substitue à la bibliothèque classique, n’est pas sans poser des problématiques d’ordre technique et juridique, qui risqueraient d’entraver son développement. A cet effet, nous avons choisi d’axer notre intervention autour des aspects juridiques de la bibliothèque virtuelle, à la lumière de certains systèmes juridiques arabes relatifs à la propriété intellectuelle.

عرف النصف الثان من العشرية الاضية انتشارا واسعا لنوع جديد من الكتبات ، أل و هي
« الكتبات الفتراضية » الت باتت تزاحم الكتبات التقليدية . و إن كانت هذه الكتبات الت
من خصائصها العتماد على تكنولوجيات العلم و التصال، إل جانب إزالتها للحدود
الزمنية و الغرافية، ستساهم ف تقريب العلومة من الستعمل و تسهل و صوله إليها ، فإنا
من جهة أخرى تطرح مشاكل عديدة قد تعرقل تطورها .
فمن هذه الشاكل ما يتعلق بأمور تقنية و منها ما يتعلق بسائل قانونية. حيث سيشكل الشق
الخي مور مداخلتنا. الت سنحاول من خللا إبراز متلف الشاكل القانونية الت قد تعرقل
أو بعد وضعها تت تصرف (I) إقامة مكتبة افتراضية، سواء ف مرحلة تصميميها و إنازها
و ذلك بدف إلقاء الضوء على السائل الت يكن أن تول دون ناح .(II) الستخدمي
مشروع إقامة مكتبة افتراضية ، لسيما ف عالنا العرب بالنظر إل النقائص الت تتاز با
أغلب القواني العربية ف مال البداع الفكري و الدب.



Reconnaissance d’objets en imagerie aérienne

Le traitement d’images représentant des scènes naturelles introduit un volume très important d’information et exige une élaboration substantielle à tous les niveaux : Pré-traitement, Segmentation,
Reconnaissance et Interprétation. La prise en compte de toutes ces phases influe indéniablement sur la qualité des tâches de traitement et sur le temps d’exécution. Or, la qualité et le temps sont souvent les seuls critères retenus par les applications, notamment en temps réel. Un système de vision doit être doté d’une représentation interne permettant de surmonter ces difficultés. Dans ce papier, nous penchons sur le problème de reconnaissance d’objets dans les images aériennes. Une des difficultés rencontrées est la variabilité d’apparence d’objets due à plusieurs facteurs externes et internes (par exemple : illumination, orientation, pose, ...). En effet, devant des données impropres à l’origine, la reconnaissance ne peut être accomplie par des algorithmes standard d’appariement direct. Pour palier ce problème, nous considérons selon une architecture présentée dans cet article la reconnaissance comme une démarche graduelle : l’objet est représenté sur une échelle de catégories, et la tâche des algorithmes de reconnaissance se concentre alors sur la détermination de la catégorie la plus détaillée selon des informations extraites de l’image. Il n’est plus nécessaire de passer par plusieurs phases intermédiaires avant de démarrer le processus de reconnaissance. Sur ce principe, nous proposons un modèle pour la représentation interne d’un système de vision qui tente de généraliser la reconnaissance d’objets en tenant compte de la catégorisation.



Implémentation et performances comparées des algorithmes cryptographiques des , RSA IDEA , 3 WAY ET RC5 ,

L’objectif de cet article consiste à implémenter et étudier le fonctionnement et les performances comparées des algorithmes suivants :

  • DES « Data Encryption Standard » qui signifie standard de chiffrement de données, l’un des algorithmes les plus connus du monde de la cryptographie. C’est un algorithme à clef secrète .
  • RSA « RIVEST SHAMIR ADELLMAN » sans doute l’algorithme à clef publique [DIF 88] le plus populaire. Il peut aussi bien être utilisée pour le chiffrement que pour la signature numérique [RIV 78].
  • DSA « Digital Signature Algorithm » signifiant algorithme de signature numérique, un autre algorithme à clef publique. Il fait partie du standard de signature numérique DSS ou « Digital Signature Standard ». Il ne peut être utilisé que pour la signature numérique.
  • IDEA « Iternational Data Encryption Algorithm » conçu en 1990 puis amélioré en 1992, il est basé sur des fondations théoriques impressionnantes, bien plus sûr que le DES avec sa clef de 128 bits [Int 07]. Pourquoi ce choix d’une comparaison entre les algorithmes à chiffrement par blocs à clef secrète : DES , 3 WAY, RC 5, IDEA et à clef publique : RSA , DSA ? D’une part ces algorithmes ont été inventés dans la même décennie , donc correspondent relativement au même degré d’avancement de la technologie cryptographique. En effet IBM publie en 1977 un algorithme basé sur Lucifer. Il devient le DES (Data Encryption Standard). L’algorithme de chiffrement à clé publique RSA est publié en 1978 par Ronald L. Rivest, Adi Shamir et Leonard M. Adleman. L’IDEA est inventé en Suisse en 1992 par Xuejia Lai et James Massey. Ron Rivest, déjà auteur de RC2 et RC4, publie RC5 en 1998. Bien qu’inventés il y a plusieurs années ces algorithmes résistent toujours parce qu’ils n’ont pas été cryptanalysés assez ou , au contraire , ils ont été classés comme résistants. D’autre part ces algorithmes sont assez rapides en chiffrement et en déchiffrement. Ils présentent donc un intérêt évident, avant d’entamer l’étude d’algorithmes plus récents donc plus robustes tels que Rinjdael, Serpent et Twofish L’originalité de l’article réside dans le choix des critères de comparaison qui sont : 1)Types et tailles des clefs 2)Le temps de chiffrement et de déchiffrement 3)Temps nécessaire pour le décryptage d’un texte chiffré 4)Contraintes machines


| info visites 2322109

Suivre la vie du site fr  Suivre la vie du site Informatique, science de l’information et bibliothéconomie  Suivre la vie du site RIST  Suivre la vie du site Volume 14  Suivre la vie du site Numéro 02   ?

Creative Commons License