WEBREVIEW
Accueil > Informatique, science de l’information et bibliothéconomie > RIST > Volume 12 > Numéro 01 > Numéro 01

Numéro 01

Articles de cette rubrique


Génération d’objets : une approche basée sur l’analyse de documents et scénarios

Ce papier décrit un processus de génération d’objets dans le domaine de l’ingénierie des systèmes d’information (SI). Il est basé sur une analyse couplant les documents circulant dans une entreprise et les scénari de leur utilisation. L’analyse de formulaires permet la dérivation de la structure statique des Objets du SI. Alors que l’analyse de scénari permet, tout en capturant le comportement, d’enrichir et de valider le modèle objet induit à l’étape précédente. Une définition et une analyse de réseaux de documents, reliés par des liens de référence, d ‘utilisation et de causalité, permet d’enrichir les liens entre les objets du SI. Le processus décrit comporte deux étapes. L’étape d’abstraction qui produit deux bases de données : l’une de documents, et l’autre des scénari, utilisant deux modèles abstraits de documents. Ainsi qu’un schéma statique objet, et une phase d’intégration qui produit le schéma conceptuel objet validé du SI



Méthodes d’analyse et de conception orientées objet : Présentation d’UML(Unified Modeling Language)

Les objets ont envahi le monde de l’informatique, et il n’y a aucun domaine qui n’ait ressenti leurs effets. L’approche objet a pour origine la programmation objet dont les langages Smalltalk et C++ sont les représentants les plus connus. Par la suite son application s’est généralisée à de nombreux domaines tels que le génie logiciel, les systèmes repartis, les bases de données et par extension les méthodes d’analyse et de conception de systèmes. Cette approche est une évolution d’une approche systémique vers une plus grande cohérence entre les objets et leur dynamique. C’est en effet la principale contribution de l’objet : d’écrire une grande partie de la dynamique du système d’information (SI) comme un ensemble d’opérations attachées aux objets composants ce système. Dans le présent article, nous définissons en premier lieu les concepts de l’approche objet, illustrés par des exemples. Ainsi toute personne ne connaissant pas encore l’approche objet pourra s’y initier plus facilement, ensuite nous exposons quelques méthodes d’analyse et de conception orientée objet. Cet article a également pour objectif de présenter un panorama détaillé des principaux outils s’appuyant sur le formalisme d’UML (Unified Modeling Language).



Vers la Gestifondée sur les Logiques de Descriptions on des Bases de Données

Cet article décrit une approche d’enrichissement des bases de données fondée sur les logiques de descriptions. Ces dernières consistent à comprendre les aspects structurels et sémantiques des bases existantes dans le but de découvrir de nouvelles connaissances permettant le passage à des modèles plus évolués. L’hétérogénéité à différents niveaux ( sémantiques, structurels, descriptifs) implique la traduction des bases de données locales dans un modèle canonique plus riche dont le choix est fondamental car il joue un rôle important dans la comparaison des schémas locaux et dans la détection des conflits inter-schémas. Le modèle canonique est défini dans le langage de concepts, qui est développé au sein de notre laboratoire comme outil de représentation et de raisonnement. Ce langage utilise la notion de classes pour produire des descriptions qui sont, en plus, utilisées dans le raisonnement. Les logiques de descriptions décrivent la structure des objets, à un niveau terminologique, en termes de concepts et de rôles. Une sémantique ensembliste est ensuite donnée pour associer un sens aux termes utilisés dans la description



Segmentation d’Images numériques : Un état de l’art des différentes méthodes.

Une image est une représentation planaire d’une scène ou d’un objet situé en général dans un espace tridimensionnel. L’information élémentaire associée à chaque point de l‘image est transcrite en niveau de gris ou en couleur . L’analyse pertinentes de l’image en regard de l’application concernée, les traiter et les interpréter. La segmentation est un traitement de bas -niveau qui consiste à créer une partition de l’image en sous-ensembles appelés régions. Une région est un ensemble connexe de points images (pixel) ayant des propriétés communes ( intensité, texture,...) qui les différencient des pixels des régions voisines. Les connaissances utilisées sont le plus souvent du domaines de l’images numérique et du traitement du signal, donc sémantiquement assez pauvres. Il n’y a pas de méthodes unique de segmentation d’une image, le choix d’une technique est lié à plusieurs facteurs. Du fait de cette diversité, il est difficile de définir de manière absolu une « bonne » segmentation. La segmentation n’est pas une fin en soi, sa qualité est fonction des résultats obtenus par les traitements situés en aval qui utilisent les primitives extraites. Nous allons dans cet article faire un survol des méthodes de segmentations les plus utilisées.



Validation Temps réel d’Algorithmes de Traitement d’Imagesur une Architecture ReconApplication au Codage d’Images et à la Détection de Mouvements figurable

Nous présentons dans ce travail une expérience d’adéquation Algorithme / Architecture pour le prototypage d’un codeur d’images temps réel destiné à la télésurveillance. Ce dernier met en œuvre deux algorithmes : le premier pour la compression et le stockage des scènes surveillées, le second pour l’extraction et la transmission de la silhouette des objets mobiles. Afin de réduire les coût de développement, la technologie reconfigurable ( FPGA) a été choisie. Cette dernière permet de développer et de tester en temps réel et à moindre coût divers algorithmes de traitement d’images, sans avoir effectue trop de modifications pour passer d’une application à une autre .



La formation Universitaire via Internet : Présentation générale, Ingénierie pédagogique et plates-formes.

Cet article présente un guide pour la conduite d’un projet de e-learning à l’université. Celle-ci peut se diviser en deux parties distinctes : l’ingénierie pédagogique et la solution logicielle. Une présentation générale est d’abord donnée citant les avantages et les problèmes envisagés dans ce mode d’enseignement, une procédure pour le choix d’une plate-forme peuvent présenter un intérêt pour nos universités. L’une d’entre-elles ouverte et gratuite peut servir dans le cadre d’une opération pilote



Les Projets NTIC : Source de performance de l’entreprise

A travers ce papier, nous essayons de montrer l’apport des NTIC (Nouvelles Technologies de l’Information et de la Communication) comme moyen moderne et incontournable pour toute entreprise qui se veut être une référence. De faire ressortir les aspects liés à l’organisation et au management basés sur une stratégie à adopter pour faire face à tout projet NTIC, tout en identifiant et mesurant les avantages et les coût de tels projets. De faire évoluer la culture et les règles de gestion des organisations en fonction des nouvelles nécessités engendrées par les Technologies de l’information et de la communication



La Démarche de l`évaluation de la qualité du document technique

l`instrument la plus utilisé en formation et en recherche scientifique est bien évidemment le livre qui occupe depuis toujours une place de choix . En effet, le livre est plus particulièrement le livre technique est utilisé en tant que support, aussi bien dans la formation de base que dans la formation spécialisée et par conséquent dans la recherche scientifique . Il est donc indispensable que ce document soit de bonne qualité afin d’avoir confiance dans les services rendus et / ou attendus. Cet article explore la démarche à suivre pour l`évaluation de la qualité de ces documents ainsi qu`une description succincte des moyens d`appréciation de ces critères



La cryptographie et ses Principaux Systèmes de Références

Lorsque les entreprises et les universités n’avaient qu’un seul centre d’ordinateur, le problème de sécurité ne se pose pas. Il suffit de placer un garde à l’entrée de la salle. Maintenant avec la venue des réseaux, l’emploi des liaison satellites et l’utilisation de l’Internet la situation a radicalement changé, dans la mesure où un même message transite par plusieurs machines avant d’atteindre son destinataire. A chaque étape, il peut être copié, perdu ou altéré. Le cryptage est donc nécessaire pour que les données soit non-intelligibles sauf à l’auditoire voulu. Avant (l’apparition des ordinateurs), la cryptographie trait des crypto systèmes basés sur les lettres ou caractères. Les différents algorithmes cryptographiques remplaçaient des caractères par d’autres ou transposaient les caractères. Les meilleurs systèmes faisaient les deux opérations plusieurs fois. La cryptographie de nos jours (l’ère des ordinateurs) est plus complexe, mais la philosophie est restée la même. La différence majeure est que les algorithmes actuels manipulent les bits au lieu des caractères. Ce n’est finalement qu’un changement de taille d’alphabet on passe de 36 éléments alphanumériques à 2 éléments binaires (0 et le 1) et rien de plus. L’objectif de cette communication est d’introduire la cryptologie et les principaux systèmes de cryptage à clé secrète (DES) à clé publique (RSA) ; l’algorithme de la signature électronique (DSA) et l’algorithme à clé mixte (PGP).



| info visites 2122279

Suivre la vie du site fr  Suivre la vie du site Informatique, science de l’information et bibliothéconomie  Suivre la vie du site RIST  Suivre la vie du site Volume 12  Suivre la vie du site Numéro 01   ?

Creative Commons License