Bienvenue! Inscrivez-vous et rejoignez notre communauté :)
  • Login:

Bienvenue sur Forum SIG - Systèmes d'Information Géographique et Géomatique.

Bienvenue sur le forumSIG. S'il s'agit de votre première visite, assurez vous de faire une recherche préalable dans les FAQ SIG. Vous devez vous inscrire avant de pouvoir poster.

Page 3 sur 40 PremièrePremière 1234513 ... DernièreDernière
Affichage des résultats 31 à 45 sur 598
  1. #31
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] Roux, Hélène (2004) Estimation de paramètres en hydraulique fluviale, à partir d


    Roux, Hélène (2004) Estimation de paramètres en hydraulique fluviale, à partir de données caractéristiques de l'imagerie aérienne. (Parameter identification in fluvial hydraulics, using data typical of remote sensing imagery.)


    Depuis ses débuts, la télédétection a considérablement contribué à la progression des recherches dans le domaine de l'hydrodynamique des crues. Les nouvelles générations de satellites sont à présent en mesure de fournir des observations qui, dans un contexte général de manque de données, peuvent être valorisées. En effet, la modélisation numérique en hydraulique fait intervenir un certain nombre de paramètres qu'il est difficile d'ajuster en pratique, ce qui entraîne de délicats problèmes de calage de ces paramètres et de validation du modèle. L'objectif de ce travail est de tester la possibilité de pallier le manque d'information auquel se heurte la modélisation hydraulique, notamment par l'intégration de données issues de la télédétection, en s'appropriant des techniques d'assimilation de données. L'originalité de l'étude est de traiter des vues de dessus de la rivière montrant l'extension des eaux afin de reconstituer les paramètres nécessaires à la simulation de l'écoulement tels que le débit, le coefficient de Strickler ou bien les caractéristiques géométriques du cours d'eau. Différentes techniques d'assimilation de données sont appliquées dans le cadre d'expériences jumelles, afin de déterminer les méthodes les plus adaptées à l'objectif visé. La méthode choisie est ensuite testée sur deux sites d'étude. Un travail de transfert de calibration est également entrepris dans le but de vérifier si les paramètres estimés à partir d'une crue permettent de simuler de façon satisfaisante un autre événement. Une analyse de sensibilité et un calcul d'incertitude sur l'étendue de la zone inondée, simulée à partir des paramètres estimés, viennent compléter l'étude.



    ABSTRACT : Since its beginnings, remote sensing has considerably contributed to the progress of the researches in the field of flood hydrodynamic. The new generations of satellite are equipped with sensors of metric resolution. Therefore, they are now able to provide observations that need to be valorized as a new data source for hydraulic modelling. Indeed, some parameters embedded in open channel flow equations are difficult to calibrate in practice and hydraulic models are currently constrained by lack of data. The objective of this study is to test the potential of remote sensing imagery which may be used together with data assimilation methods to ascertain the value of a set of open-channel model parameters. The innovation of this study is to reconstitute information about the geometry of the river from top sight. Several data assimilation techniques have been tested on a synthetic case in order to find the most appropriate method for hydraulic parameter identification. The chosen optimisation technique has then been implemented on two test sites. The study proceeds with an assessment of model performance when model calibrations are transferred between two flood events. Finally, a sensitivity analysis is carried out, together with an estimation of predictive uncertainty.


    Keywords: Assimilation de données - Estimation de paramètres - Hydraulique fluviale - Inondation - Problème inverse - Télédétection.
    KEYWORDS : Data assimilation - Parameter identification - Fluvial hydraulics - Flood -
    Inverse problem - Remote Sensing

    Source: http://ethesis.inp-toulouse.fr/archive/00000040/

    Home is where the .arc is...
    Propos sous license Beerware !!!

  2. #32
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] Thèse de Raclot, MÉTHODOLOGIE D'EXPLOITATION QUANTITATIVE DES PHOTOGRAPHIES AÉRI

    MÉTHODOLOGIE D'EXPLOITATION QUANTITATIVE DES PHOTOGRAPHIES AÉRIENNES D'INONDATION DE PLAINE

    Université Montpellier II - Sciences et Techniques du Languedoc - (2003-06-24), Desbordes Michel (Dir.)

    Damien Raclot

    Ce travail est centré sur la mise au point d'une méthodologie d'exploitation de photographies aériennes prises en période de crue pour en extraire, au moment de la prise de vue, la cote de l'eau en tout point de la plaine. Cette méthodologie, appelée "approche-photo", comporte une phase de traitement de télédétection, une phase d'analyse spatiale et de structuration de l'information dans un SIG, et une phase novatrice et originale de fusion et mise en cohérence de l'ensemble des données extraites (développement d'un algorithme de mise en cohérence inspiré de l'hydraulique et de techniques empruntées au domaine de l'intelligence artificielle). La méthode a été testée sur trois sites d'étude, couvrant un panel très large de contextes. Un travail important de validation et d'analyse de sensibilité a permis de montrer que la précision des estimations de la cote de l'eau, produites sous forme de fourchette [Min, Max], était de l'ordre décimétrique, résultat tout à fait compatible avec les exigences hydrauliques. "L'approche-photo" constitue donc une valorisation quantitative des archives photographiques concernant les crues historiques. Une première retombée provient de la structuration de ces résultats au sein d'un SIG, ce qui les rend facilement mobilisables pour toutes les étapes de la gestion du risque d'inondation. Une seconde retombée, bien plus importante, résulte de la complémentarité de "l'approche-photo" avec les approches traditionnelles. Celle avec la modélisation hydraulique a été approfondie par la mise en œuvre d'un modèle 2D sur la basse vallée de l'Hérault. Une confrontation des résultats a permis de mettre en avant les apports réciproques : "l'approche-photo" comme aide à la structuration, au calage et à la validation de la modélisation et, à l'inverse, la modélisation hydraulique comme aide à la validation de "l'approche-photo".Cette thèse se veut une illustration de l'intérêt d'une démarche multidisciplinaire.

    Keywords: Inondation – plaine d'inondation – photographie aérienne – télédétection – hydraulique – modélisation – analyse spatiale – qualité – fusion – mise en cohérence – problème de satisfaction de contraintes

    Source: http://tel.archives-ouvertes.fr/tel-00003257


    Home is where the .arc is...
    Propos sous license Beerware !!!

  3. #33
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] Thèse de Guérois, 2003. Les formes des villes européennes vues du ciel

    Les formes des villes européennes vues du ciel. Une contribution de l'image CORINE Land cover à la comparaison morphologique des grandes villes d'Europe occidentale.

    Université Panthéon-Sorbonne - Paris I - (2003-12-16), Pumain Denise (Dir.)

    Marianne Guérois

    La question de la forme urbaine s'est affirmée depuis une dizaine d'années comme une priorité des réflexions sur le devenir des villes européennes. Soulevée en réaction au processus d'étalement urbain, cette question est de plus portée par l'émergence de la notion de développement urbain durable et par les débats qu'elle anime quant aux bien-fondés d'un modèle de ville compacte et dense. Ces discussions ne sont cependant que rarement étayées par des mesures comparables car les bases de données sur les villes européennes sont toujours en cours de constitution. La cartographie des espaces bâtis restituée par l'image CORINE Land cover vers 1990 est une source inédite qui, croisée avec les données de population, nous a permis d'établir un ensemble de repères pour comparer les formes des villes considérées à l'échelle de la tache urbaine. Malgré la complexité des processus en jeu et par-delà la spécificité des situations locales, nous avons ainsi interrogé le rôle de logiques générales relatives à la taille des villes, à leur appartenance nationale ou à différents contextes de peuplement régionaux, pour rendre compte de la diversité des formes observées en Europe occidentale. Dans le cadre des agglomérations, deux dimensions de la compacité, l'une relative à l'emprise physique des villes (étendue et densité), l'autre à leur configuration spatiale (forme des taches urbaines), ont été croisées pour vérifier et nuancer l'importance d'un gradient nord-sud de la compacité urbaine en Europe. Dans le cadre élargi d'aires urbanisées, le modèle du champ urbain ressort encore comme un principe fort d'organisation des espaces bâtis, selon un double gradient linéaire, très contrasté dans les limites de l'agglomération, plus diffus dans les espaces périurbains. Pour quelques grandes régions urbaines, l'application de méthodes de lissage a permis, en généralisant l'image des surfaces bâties à plusieurs échelles, de restituer différentes structures hiérarchiques du peuplement, plutôt monocentriques ou polycentriques. Ces premières explorations ont établi des résultats qui seront confrontés à la prochaine version de CORINE, disponible en 2004.

    Keywords: forme – étalement urbain – villes européennes – surfaces bâties – CORINE Land cover – ville compacte – shape – urban sprawl – European cities – built-up areas – compact city

    Source: http://tel.archives-ouvertes.fr/tel-00004303


    Home is where the .arc is...
    Propos sous license Beerware !!!

  4. #34
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] Thèse de Loubier, 2004. Perception et simulation des effets du changement climat

    Perception et simulation des effets du changement climatique sur l'économie du ski et la biodiversité

    Université Joseph-Fourier - Grenoble I - (2004-05-06), GUIGO Maryse (Dir.)

    Jean-Christophe Loubier


    Dans les hautes vallées alpines, on observe des conflits d'intérêts entre l'économie du ski et les objectifs de préservation de la biodiversité dans le cadre du changement climatique global. Les enjeux sont importants et la concertation en matière d'aménagement devient très difficile Nous avons cherché à développer une méthodologie et un instrument d'aide à la concertation par heuristique visuelle. L'expérimentation de cet instrument est conduite sur le territoire de la Savoie et de la Haute Savoie. Cette thèse se développe en trois temps. Le premier temps définit le contexte général du changement climatique d'un point de vue global. Nous établissons ensuite un changement d'échelle pour nous rapprocher de l'échelon local. Il s'agit d'identifier les mécanismes d'émergence des conflits d'intérêts en fonction des enjeux simultanés économie du ski/préservation de la biodiversité. Le second temps développe une méthodologie pour aider la concertation autour de ce type de conflits par simulation interactive. C'est l'approche par heuristique visuelle. Nous montrons comment, une base de données doit être conçue, pour permettre la mise en œuvre de ce concept. Nous définissons également les types d'outils qui doivent être utilisés ainsi que leurs agencements pour la construction de l'environnement de simulation. Cette partie propose également une stratégie particulière d'amélioration de l'information continue quand il apparaît un besoin d'interpolation sur un faible jeu de données. Enfin, le dernier temps développe l'expérimentation sur notre terrain d'étude.

    Keywords: ystèmes d'Information Géographique – géostatistique – interpolation – modélisation – concertation – réalité virtuelle

    Source: http://tel.archives-ouvertes.fr/tel-00006990


    Home is where the .arc is...
    Propos sous license Beerware !!!

  5. #35
    Rédacteur honoraire
    Date d'inscription
    février 2005
    Localisation
    Rabat
    Âge
    41
    Messages
    886

    Par défaut [FR] support de cours de Mathématiques

    Les cours de math les plus complets que je connaisse se trouve sur le site web http://www.les-mathematiques.net/. Tous ces cours sont d'un niveau post-bac. Les cours d'agrégation regroupe à peu près tout ce qu'il faut savoir à ce niveau.

    En compléments de ça, on peut bien sûr utiliser Wikipedia.
    -={+}=- lire de la science-fiction rend heureux -={+}=-

  6. #36
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR) Les machines à voter électroniques en débat...

    Allez, petit souvenir du concours d'ingé de cette année!!!

    source: http://interstices.info/vote-electronique

    Les machines à voter électroniques en débat...

    30/03/07

    Plus d’un million d’électeurs utiliseront des ordinateurs de vote en France en 2007. Ces machines, qui enregistrent les votes des électeurs pendant le scrutin puis les additionnent lors du dépouillement, sont introduites dans les bureaux de vote dans le but d’améliorer la procédure électorale (gain de temps, gain de personnels, gain d’argent…). Pourtant, à y regarder de plus près, les ordinateurs de vote ne sont pas sans poser de graves questions démocratiques. Sous couvert de modernité et de fiabilité, ces machines à voter peuvent jouer de mauvais tours. De nombreux pays étrangers en ont déjà fait les frais.


    Dessin : François Cointe.
    Le code électoral français fixe dès 1969 le cadre légal du vote à l'aide d'ordinateurs de vote. Réservé aux communes de plus de 3500 habitants, le vote électronique doit se dérouler sur un ordinateur d'un modèle agréé par arrêté du ministre de l'Intérieur et doit vérifier un certain nombre de critères (le vote doit se dérouler dans un isoloir, doit être possible pour les personnes handicapées, doit permettre le vote blanc, etc.).
    En pratique, le citoyen entre dans l'isoloir, consulte les choix présentés sur l'écran de la machine, choisit son candidat en pressant un bouton (ou bien à l’aide d’un crayon optique), son choix est alors affiché sur l'écran et l’électeur peut confirmer son vote avant de sortir de l'isoloir pour émarger.
    Lors du dépouillement, le président du bureau de vote (en présence d'assesseurs) appuie sur un bouton, l'ordinateur donne les résultats sous la forme d'un ticket imprimé qui est agrafé au procès-verbal et dont les résultats sont recopiés sur ce même procès-verbal. Ces résultats sont également inscrits dans la carte mémoire de l'ordinateur de vote, qui peut être éventuellement transmise à la mairie pour totalisation (mais c'est le procès-verbal qui fait foi).

    Un tel procédé présente certes des avantages en comparaison de la procédure traditionnelle par bulletin papier. Le premier est l’obtention rapide des résultats à l’issue du scrutin. L’économie du comptage manuel des bulletins papier entraîne également une diminution du nombre de scrutateurs volontaires (responsables du dépouillement) de plus en plus difficiles à trouver. Le deuxième avantage est lié aux coûts, grâce à l’économie de papier réalisée et à la possibilité pour les « petits » candidats de se dispenser d’une telle dépense. Enfin, les arguments en faveur de ces machines mettent en avant une réduction possible du nombre de bureaux de vote, une réduction attendue de l’abstention, ou encore une meilleure accessibilité aux handicapés.
    Dessin : François Cointe.
    Ces arguments sont dans l'ensemble recevables, mais ils ne sont, au fond, basés que sur des critères extrinsèques ne possédant qu’une valeur économique ou commerciale : gain de temps et d’argent notamment. Or, pour les électeurs et les citoyens que nous sommes, il s’avère important de mesurer plutôt les avantages et inconvénients des machines à voter sur des critères intrinsèques, et donc inhérents à une élection et à l’acte de voter lui-même.
    Autrement dit, la procédure de vote via une machine à voter respecte-t-elle correctement les critères énoncés par notre code électoral ?
    Cinq critères à respecter

    Le code électoral français énonce cinq critères que doit respecter une élection : confidentialité, anonymat, transparence, sincérité, unicité.
    Que le vote soit effectué par des bulletins papier ou des machines à voter, on peut aisément en conclure que les critères de confidentialité et d’anonymat sont dans les deux cas respectés : pour le premier, l’électeur dispose d’un isoloir et pour le second, l’émargement n’étant pas automatisé (en France tout au moins), il est dissocié du choix de l’électeur.
    Penchons-nous maintenant sur les trois autres critères. Dans le cas des bulletins papier, la transparence est obtenue car le déroulement du scrutin et du dépouillement est public et vérifiable ; la sincérité, car le bulletin déposé dans l’urne correspond bien à celui que le votant a choisi ; enfin l'unicité, car il n'y a qu'un seul bulletin par votant.
    C’est là où les choses sont beaucoup moins évidentes pour le vote électronique. Après avoir validé son choix en pressant sur un bouton, le votant n’a en effet aucun moyen de vérifier que le vote enregistré par la machine est bien effectivement celui de son choix. Il doit donc faire reposer son exigence de sincérité (et d’unicité aussi) uniquement sur la confiance qu’il attribue à la machine.
    Dessin : François Cointe.
    De même que, lors du dépouillement, les scrutateurs et les citoyens ne peuvent pas exercer leur pouvoir de contrôle, puisque l'ordinateur calcule automatiquement les résultats, et qu’en l’absence de bulletins papier, il n’est de toute façon pas possible de les vérifier ou de procéder à un recomptage en cas de désaccord sur les résultats. L’exigence de transparence repose donc elle aussi uniquement sur la confiance dans la machine à voter.
    Dans ces conditions, pouvons-nous faire confiance à ces machines à voter ? En d’autres termes, certains enjeux de notre démocratie peuvent-ils ne reposer que sur la confiance attribuée, presque aveuglement, à des machines ?
    Oui, répondent les fabricants de ces machines, car ce sont de « simples objets électroniques ».
    Non, répondent des informaticiens, car ce sont de véritables ordinateurs. Quelles que soient les différences entre les modèles proposés, ces machines sont bien toutes des ordinateurs dotés d’un boîtier, d’une mémoire, d’un écran et d’un logiciel.
    Or en matière d’informatique, nous ne sommes pas tous conscients de la fragilité de comportement d'un ordinateur. Cette fragilité des systèmes informatiques d'une manière générale est largement admise dans la communauté des informaticiens professionnels, qu'il s'agisse d'une fragilité due à des erreurs involontaires ou à des intentions malveillantes.
    Des erreurs involontaires ou des intentions malveillantes

    Dans le premier cas, l'ordinateur peut simplement dysfonctionner à cause d'une erreur dans son programme ou d'une panne matérielle. En aérospatiale par exemple, les programmes sont parmi les plus sûrs du monde car des vies humaines et des sommes considérables d'argent dépendent de leur bon fonctionnement. Les ingénieurs utilisent des techniques très avancées pour s'assurer que leurs programmes comportent aussi peu d'erreurs que possible, des techniques de vérification et de preuve peuvent être mises en œuvre pour les détecter et les corriger. Mais ils savent également qu'il en subsiste souvent. Lorsqu'un programme pilote une fusée, celle-ci atteindra son objectif, ou bien déviera de sa route et explosera, comme ce fut le cas pour Ariane 5.
    Dans le deuxième cas, les informaticiens savent qu'il est facile de modifier un programme avec une intention malveillante par l'insertion d'un cheval de Troie , ou d'une porte dérobée. Ces mécanismes sont particulièrement discrets et quasi-impossibles à détecter car ils ne sont pas forcément statiques. Ils peuvent être générés par le programme et n'apparaître que pendant de brefs instants pour rester totalement invisibles le reste du temps. La présence d'un mécanisme de super-utilisateur peut aussi faciliter la corruption du système.
    Si l'ordinateur modifie les votes, qui s'en apercevra ?

    Seuls les résultats manifestement erronés parce qu'invraisemblables peuvent être détectés : si un candidat obtient davantage de voix qu'il n'y a d'électeurs, il est évident qu'il s'est passé quelque chose d'anormal. Or, en l’absence de support physique (impression d’un ticket papier confirmant le choix de l’électeur et conservé dans une urne) aucun recomptage manuel n’est possible. Le problème peut d’ailleurs être plus discret et n'affecter qu'un faible pourcentage des votes, cependant suffisant pour faire basculer le résultat, ou bien échanger les suffrages obtenus entre deux candidats.
    Dessin : François Cointe.
    Pour s’en convaincre, une équipe de l’université de Princeton a testé en septembre 2006 le piratage d’une de ces machines. Deux minutes ont leur ont suffi pour ouvrir la machine et en modifier la mémoire. La trappe de protection du terminal est d’abord crochetée à l’aide d’un trombone et une carte mémoire qui charge le logiciel pirate est insérée dans la machine. La carte est ensuite retirée. Un vote factice oppose ensuite George Washington à Benedict Arnold. Le premier devrait être élu par 3 voix contre 1. Abusé par le logiciel, le terminal fournit un résultat erroné, mais préservant le nombre de votes : 3 voix pour Benedict Arnold, 1 pour George Washington.
    Quelques semaines plus tard aux Pays-Bas, Rop Gonggrij, pirate hollandais chevronné, parvient à installer sur une machine (différente de celle de Princeton) un code capable de détourner un nombre de votes déterminés vers un candidat choisi.
    Cette même équipe a récemment démontré qu’il est possible de connaître le choix d’un électeur en analysant les ondes électromagnétiques émises par les machines jusqu’à une portée de 25 mètres, ce qui remettrait aussi en cause la confidentialité du vote.
    Scénario de polar peu probable diriez-vous ? Pas si fictif que ça !

    De nombreux autres pays utilisent ces ordinateurs depuis plus longtemps que nous. Les Etats-Unis, par exemple, utilisent des ordinateurs de vote depuis les années 1990. La Belgique a démarré les expériences de vote électronique en 1991 et cela concerne actuellement 44 % des électeurs. Au Québec, les élections municipales du 6 novembre 2005 se sont déroulées à 95 % à l'aide d'ordinateurs. Même si ces ordinateurs de vote diffèrent d'un pays à l'autre (par exemple, quelques-uns impriment un bulletin papier), néanmoins ce sont tous des systèmes informatiques et ils effectuent tous un dépouillement automatique.
    L’expérience de ces pays montre qu’ils ont tous vécus de nombreux incidents : de la simple panne d’ordinateurs (décalant de plusieurs heures l’ouverture des bureaux de vote), au constat de résultats aberrants (plus de voix que de votants, votants non enregistrés). Bien entendu, seules les situations de dysfonctionnement manifestes ont pu être détectées. Il est fort possible que des dysfonctionnements soient passés inaperçus car les résultats énoncés par l'ordinateur n'étaient pas aberrants. Une inversion du nombre de suffrages obtenus par deux candidats est par exemple indétectable (car le résultat n'est pas aberrant) et invérifiable… les conséquences en sont pourtant très lourdes sur le plan démocratique.
    Contrôler l'intégrité et la sûreté des ordinateurs de vote

    Qu’ils soient dus à des erreurs involontaires ou à des intentions malveillantes, détecter et éviter ces cas de dysfonctionnement repose pour l’essentiel sur le contrôle de l’intégrité et de la sûreté des ordinateurs de vote. Le système (matériel, logiciel, paramètres), une fois certifié, ne doit pas être modifié, et ne doit pas pouvoir être modifié. C’est en tout cas ce que défendent des chercheurs en informatique qui se sont, très tôt, intéressés à l’ordinateur de vote et préconisent des critères inspirés de ceux en vigueur en sécurité informatique.
    Outre le contrôle de son intégrité (pas de modification possible), le système (matériel, programmes, circuits intégrés supplémentaires, documentation) doit être ouvert. Il doit pouvoir être inspecté à n'importe quel moment, même s'il est protégé par le secret industriel, car les systèmes propriétaires (au code source gardé secret) que l'on ne peut pas vérifier sont fortement suspects.
    Dessin : François Cointe.
    Le système doit être disponible, doit pouvoir être utilisé à n'importe quel moment et protégé contre toute tentative, frauduleuse ou non, de corruption de son fonctionnement.
    La méthode de développement du système (architecture, implémentation, maintenance, etc.) doit minimiser les erreurs (bugs) et l'insertion malveillante de lignes de programme ayant pour intention d'en corrompre le fonctionnement. Il existe différentes techniques visant à accroître la sûreté d'un système, mais aucune de ces méthodes n'est infaillible. Tester un programme avec succès ne prouve en rien sa fiabilité : la moindre inversion de la valeur d'un bit peut provoquer une erreur de une, 1024 ou encore 65 536 voix.
    Les mémoires sur lesquelles sont inscrits le programme et les paramètres ne doivent être accessibles qu'en lecture pour éviter toute modification ultérieure, tandis que les mémoires recueillant les votes doivent être non réinscriptibles (once-writable memories).
    L'architecture du système, son implémentation, les pratiques de développement, les procédures à suivre pour l'utiliser et les procédures de tests doivent être suffisamment documentées. La documentation doit également décrire quelles mesures de sécurité ont été prises concernant chacune de ces étapes.
    L'intégrité de toutes les personnes impliquées dans le développement, l'utilisation, l'administration ou le stockage d'ordinateurs de vote doit être vérifiée.
    Enfin, il doit être possible de recompter les votes manuellement par l’impression d’un bulletin ou ticket papier validé en isoloir par l’électeur, ou tout autre moyen garantissant l’anonymat du vote.
    Une procédure légale insuffisante

    Or, aujourd’hui, la procédure mise en place par les pouvoirs publics ne permet pas de garantir le respect de ces critères. Le ministère de l’Intérieur, à l’origine du cadre de fonctionnement de ces ordinateurs, délivre les agréments aux constructeurs en se basant entièrement sur le rapport rendu par l’organisme d’inspection (Bureau Veritas ou Ceten-Apave). Celui-ci examine UN ordinateur à un moment donné et non TOUS les ordinateurs fabriqués. En fait, cet organisme doit simplement vérifier la conformité du modèle de la machine à un cahier des charges qui semble plutôt répondre à des besoins fonctionnels (fiabilité de l’électronique, longévité, facilité d’utilisation) qu’à de réelles contraintes de sécurité. Il n’y a aucune obligation d'examen approfondi du programme ou des documents et aucune vérification de l’intégrité des personnes intervenant sur ces ordinateurs. Il n'est pas clair de savoir si l'organisme a la possibilité d'examiner le code source du logiciel de la machine, car celui-ci est protégé par le secret industriel et commercial. Cela dit, examiner le code source ne garantirait pas de détecter une fraude bien réalisée. Et des modifications dites « mineures » concernant l'entretien ou la correction de bugs ne font l'objet d'aucun examen complémentaire.
    Il n’y a pas non plus de procédure particulière de scellement ou de surveillance des ordinateurs entre les scrutins. Lorsque les ordinateurs sont loués, la responsabilité du stockage revient au prestataire de services (souvent la société importatrice des ordinateurs). Aucune procédure spéciale n’est exigée pour garantir avant utilisation l’intégrité des ordinateurs « certifiés ».
    Les municipalités utilisatrices, quant à elles, doivent simplement se fier à l’agrément du ministère. Lors d’une élection, l'ordinateur imprime à l’ouverture du scrutin un ticket indiquant un checksum (somme de contrôle) : deux séries de 8 chiffres ou lettres (c'est-à-dire deux nombres 32 bits exprimés en hexadécimal). Les assesseurs vérifient qu'ils sont identiques à ce qu'indique le manuel d'utilisation, mais n’ont en réalité qu’une illusion d’avoir vérifié quelque chose, puisque ce cheksum est imprimé à partir du logiciel de la machine qu’il est censé garantir.
    Malgré la forte opposition de scientifiques spécialistes de la sécurité informatique et la mobilisation croissante des citoyens, il apparaît extrêmement difficile de remettre en cause l’utilisation des ordinateurs de vote, que le pouvoir politique continue à soutenir. Nous constatons qu'après plus d'une décennie d'errements, certains Etats ont quand même commencé à prendre conscience des problèmes posés par ces ordinateurs : l'Etat de Californie a décidé de rendre obligatoire l'impression d'un bulletin papier vérifié par l'électeur à partir de juillet 2006 ; en Irlande, à cause des protestations de la population et des spécialistes en informatique de la Irish Computer Society, la commission indépendante nommée par le gouvernement a déclaré en décembre 2004 être incapable de recommander l'utilisation des ordinateurs de vote pour les prochaines élections (il s'agissait d'élections locales, européennes et d'un référendum) et a finalement conclu en juillet 2006 que la mise en œuvre de mesures supplémentaires conditionnerait l’utilisation de ces machines (notamment le cryptage des votes, un examen indépendant, des tests rigoureux…).
    Il serait douloureux que les mêmes erreurs soient commises en France, alors même que des élections majeures (présidentielles et législatives) vont avoir lieu en 2007, d'autant plus que la remise en cause a posteriori du bon déroulement de ces votes de première importance pourrait menacer la stabilité politique de ce pays.
    Enfin, il est regrettable que la mise en œuvre d'ordinateurs de vote ait eu lieu sans qu'une commission indépendante à la fois du pouvoir politique et des fabricants ne soit mise en place.
    L'utilisation de l'informatique peut contribuer à améliorer le fonctionnement de la démocratie. Par un meilleur accès des handicapés peut-être, par la dispense de bulletins pour les « petits candidats » sans doute. À condition que la mise en œuvre de ces systèmes ne dégrade pas la qualité de la procédure de vote dans son ensemble et ne remette pas en question tout un système démocratique instauré (non sans mal) depuis longtemps.
    Ce texte a été élaboré à partir des documents de Chantal Enguehard, « Le vote électronique en France : opaque & invérifiable », et Pierre Muller, « Qui contrôle le vote électronique ? », avec son aimable autorisation.
    Home is where the .arc is...
    Propos sous license Beerware !!!

  7. #37
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [EN] Classification and Change Detection Using Landsat TM Data: When and How to Corre

    Classification and Change Detection Using Landsat TM Data: When and How to Correct Atmospheric Effects?


    Remote Sensing of Environment
    , Vol. 75, No. 2. (February 2001), pp. 230-244.


    The electromagnetic radiation (EMR) signals collected by satellites in the solar spectrum are modified by scattering and absorption by gases and aerosols while traveling through the atmosphere from the Earth's surface to the sensor. When and how to correct the atmospheric effects depend on the remote sensing and atmospheric data available, the information desired, and the analytical methods used to extract the information. In many applications involving classification and change detection, atmospheric correction is unnecessary as long as the training data and the data to be classified are in the same relative scale. In other circumstances, corrections are mandatory to put multitemporal data on the same radiometric scale in order to monitor terrestrial surfaces over time. A multitemporal dataset consisting of seven Landsat 5 Thematic Mapper (TM) images from 1988 to 1996 of the Pearl River Delta, Guangdong Province, China was used to compare seven absolute and one relative atmospheric correction algorithms with uncorrected raw data. Based on classification and change detection results, all corrections improved the data analysis. The best overall results are achieved using a new method which adds the effect of Rayleigh scattering to conventional dark object subtraction. Though this method may not lead to accurate surface reflectance, it best minimizes the difference in reflectances within a land cover class through time as measured with the Jeffries-Matusita distance. Contrary to expectations, the more complicated algorithms do not necessarily lead to improved performance of classification and change detection. Simple dark object subtraction, with or without the Rayleigh atmosphere correction, or relative atmospheric correction are recommended for classification and change detection applications.

    Home is where the .arc is...
    Propos sous license Beerware !!!

  8. #38
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] Article de Besse, 2005. Cartographier les lieux de nulle part


    Notre Histoire
    (2005) 18-22

    L'article se propose d'étudier quelques aspects de l'histoire de l'imaginaire géographique européen. Il analyse, en particulier, quelques exemples relevant de la cartographie de lieux « utopiques » : le Paradis, l'île d'Utopie, le Royaume de Tendre, les jardins révolutionnaires. L'objectif de ces analyses est de montrer en quoi, dans la cartographie, l'imaginaire est une des provinces du réel.

    Keywords: Paradis – Utopie – Carte du Tendre – jardins révolutionnaires – cartographie imaginaire

    Source: http://halshs.archives-ouvertes.fr/halshs-00113281

    Home is where the .arc is...
    Propos sous license Beerware !!!

  9. #39
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] article de Favier, 2005. Raoul Blanchard et la découverte des Alpes


    Die Alpen! Zur europäischen Wahrnehmungsgeschichte seit der Renaissance. Les Alpes! Pour une histoire de la perception européenne depuis la Renaissance, Peter Lang (Ed.) (2005) 367-374


    Rien ne prédisposait Raoul Blanchard, homme des plaines, à devenir l'« inventeur » des Alpes occidentales. Après une thèse sur la Flandre, ce sont les hasards des nominations universitaires qui le conduisirent à exercer son activité à Grenoble en 1906, et à travailler sur les Alpes qu'il n'avait jusque là approchées que comme touriste. Rejetant avec mépris les approches locales, érudites et jugées trop anthropologiques, il entendit appliquer à l'étude de ce territoire « vierge », les méthodes de la « vraie géographie », appuyée sur des sciences naturelles et des sciences humaines, que lui avait enseignée Vidal de la Blache.
    Toute son œuvre visa à délimiter, dénommer, cartographier et caractériser les différents massifs non pas selon les logiques anciennes, administratives ou historiques, mais selon leurs critères spécifiquement géographiques, les critères naturels. Outre la fondation d'une école géographique (à travers notamment la création de l'Institut de géographie alpine et de la Revue de géographie alpine), il chercha également à promouvoir l'idée que la région naturelle devait fonder les principes de solidarité économique qui devaient exister entre ses différentes parties, et que l'unité morphologique des Alpes devait être la « base et le fondement » d'une région économique et administrative.

    Keywords: Alpes – mémoire – territoire – erudit – région

    Source: http://halshs.archives-ouvertes.fr/halshs-00006598

    Home is where the .arc is...
    Propos sous license Beerware !!!

  10. #40
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] La riche zoologie des automates cellulaires

    La riche zoologie des automates cellulaires

    16/04/07

    Les automates cellulaires modélisent des phénomènes variés tels la circulation automobile et la propagation des feux de forêt. De nouvelles techniques d’analyse classent les automates selon une échelle de complexité.
    [...]
    Source: http://interstices.info/display.jsp?id=c_19162

    et

    À la découverte des automates cellulaires

    16/04/07

    Explorer les relations mathématiques entre les phénomènes observés chez des êtres vivants et des machines, c'est là l'une des possibilités offertes par les automates cellulaires. Découvrez ce moyen d'investigation des processus auto-reproductifs à travers différents exemples d'automates cellulaires...
    Source: http://interstices.info/display.jsp?id=c_27035
    Home is where the .arc is...
    Propos sous license Beerware !!!

  11. #41
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] Thèse de Hessas, Evaluation cartographique et évolution diachronique par télédét


    Institut National Agronomique d'Alger - (2005-12-15), Hervé GUMUCHIAN (Dir.)

    Nassima Hessas

    Les Alpes-Maritimes est le milieu le plus sensible aux risques incendies en raison de son climat, de son relief, de ses enjeux touristiques, urbanistiques et économiques. La démarche consiste à détecter les risques et mesurer leurs conséquences. Afin de connaître l'impact de ces feux, il est nécessaire de déterminer leur répartition spatiale et temporelle. De très larges étendues sont concernées et la télédétection est l'un des moyens d'appréhender le phénomène à une aussi grande échelle. Les statistiques annuelles réalisées regroupent trente années d'incendies, à l'échelle départementale ensuite communales sous - tendues par plusieurs questions : Quelles sont les causes et les fréquences des feux et leur ampleur? Les feux de saison sont- ils de même proportion ? Pourquoi 2003 a – t - il été une vraie catastrophe ? L'utilisation du SIG, pour l'évaluation cartographique, se révèle être à la fois un outil scientifique performant pour connaître et rendre compte de l'aléa et exprimer la vulnérabilité et pour déterminer des zonages que les aménageurs et décideurs intégreront dans leur démarche globale d'aménagements du territoire aux échelles appropriées. La multiplication des classifications et ACP sur une image satellitaire et l'AFC sur l'ensemble du bassin apportent une contribution importante à la compréhension de ce phénomène. Les incendies de forêts engendrent des modifications fondamentales. L'étude diachronique de l'évolution du Paillon, par le biais de 3 séries de photographies grâce à la télédétection et au SIG permet de cerner des dimensions spatio-temporelles très précises. L'étude de la simulation de la propagation du feu aide à la prise de décision.

    keywords: risque – incendie de forêt – aléa – vulnérabilité – éclosion – probabilité – simulation – télédétection.

    Source: http://tel.archives-ouvertes.fr/tel-00142644

    Home is where the .arc is...
    Propos sous license Beerware !!!

  12. #42
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] thèse de Kamoun, recherche et la composition des itinéraires en ligne


    Ecole Centrale de Lille - (2007-04-04), Slim HAMMADI (Dir.) v2 (23-04-2007)

    Mohamed Amine Kamoun

    Afin d'éviter au voyageur de consulter plusieurs sites web d'opérateurs de transport en commun pour planifier son déplacement, ce travail vise à concevoir un Système d'Information Coopératif de Mobilité (SICM) pour l'aide au déplacement multimodal. Il s'agit d'automatiser cette démarche de recherche et de composition d'itinéraires, pour fournir une information multimodale via un système intégrateur, en s'appuyant sur la théorie des systèmes multi agents (SMA) pour l'intégration et la médiation des systèmes d'information des différents opérateurs de transport.

    Pour produire l'information multimodale et multi opérateurs nécessaire à l'aide au déplacement, le SICM doit accéder aux différents systèmes d'information des opérateurs de transport et intégrer des résultats de recherche qui sont générés par les différents algorithmes des différents opérateurs. Dans cette approche, le SICM est un intergiciel (middleware) qui devient un client parmi d'autres usagers des systèmes d'information existants. Le SICM devient alors l'intermédiaire entre les différentes sources d'informations hétérogènes et distribuées d'une part et les clients d'autre part. Ce système doit être capable à la fois de trouver la bonne source d'information pour l'interroger selon les différentes requêtes des utilisateurs, et de regrouper les informations de manière cohérente pour répondre aux requêtes. Pour fournir un itinéraire composé mais surtout optimisé selon les critères de l'utilisateur, le recours à des
    algorithmes de plus courts chemins distribués « en ligne », et adaptés à des graphes dynamiques (dépendant du temps) a été retenu afin de réaliser ce moteur de recherche et de composition d'itinéraires multimodaux en ligne.

    Keywords: Information voyageur - Transport multimodal - Information multimodale – Systèmed'Information - Systèmes multi-agents - Recherche d'itinéraires

    Source: http://tel.archives-ouvertes.fr/tel-00142340

    Home is where the .arc is...
    Propos sous license Beerware !!!

  13. #43
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] thèse de Chakhar, CARTOGRAPHIE DÉCISIONNELLE MULTICRITÈRE, 2006


    Université Paris Dauphine - Paris IX - (2006-12-07), Vincent Mousseau (Dir.)

    Salem Chakhar

    Les SIG, systèmes d'information géographiques, stockent des données géo-référencées dans des bases de données géographiques, ouvrant ainsi de grandes potentialités en terme d'exploitation. Une utilisation fréquente des SIG concerne la prise de décision à référence spatiale. Néanmoins, la technologie SIG actuelle souffre encore de plusieurs lacunes, dues en grande partie à un manque de capacités analytiques capables de supporter la nature multicritère des problèmes spatiaux. La solution la plus diffusée pour faire évoluer les SIG vers un vrai outil d'aide à la décision à référence spatiale est l'analyse multicritère (AMC). De nombreux travaux d'intégration SIG-AMC ont été publiés depuis le début des années 1990. Cependant, ces travaux présentent plusieurs limites qui les empêchent à être diffusés au delà du cadre académique :
    (i) utilisation du mode d'intégration indirecte ou encastrée,
    (ii) intégration d'une seule méthode ou d'un nombre limité de méthodes,
    (iii) absence d'une méthodologie pour le choix de la méthode à appliquer dans un problème donné,
    (iv) intégration des méthodes du critère unique de synthèse, et
    (v) nécessité d'une connaissance approfondie du SIG et de l'AMC.

    Dans ce travail de thèse, notre contribution a porté sur la proposition de solutions conceptuelles, méthodologiques et informatiques pour surpasser ces différentes lacunes. Plus précisément, nous proposons :
    (i) une stratégie d'intégration SIG-AMC,
    (ii) un module à base de règles pour le choix de la procédure d'agrégation,
    (iii) une méthodologie pour la cartographie décisionnelle multicritère facilitant l'utilisation des méthodes de surclassement de synthèse, et
    (iv) une algèbre destinée à la modélisation spatiale multicritère.

    Pour valider les solutions proposées, nous avons développé un prototype et nous l'avons
    appliqué à un problème de génération des corridors en utilisant des données réelles, relatives à l'Ile-de-France. Les résultats obtenus sont satisfaisants.

    keywords: Système d'information géographique – Analyse multicritère – Cartographie décisionnelle multicritère – Algèbre des cartes – Génération des corridors

    Source: http://tel.archives-ouvertes.fr/tel-00143960

    Home is where the .arc is...
    Propos sous license Beerware !!!

  14. #44
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR,EN] version 3.0 de creative commons

    Hello,
    La version 3.0 des licences creative commons (descriptif sous http://fr.creativecommons.org/CCA4_6licences.rtf) est sortie (http://creativecommons.org/weblog/entry/7249)...
    Faites en bon usage !!!

    Home is where the .arc is...
    Propos sous license Beerware !!!

  15. #45
    Biblioman
    Date d'inscription
    mai 2005
    Localisation
    Villeurbanne
    Âge
    35
    Messages
    3 293

    Par défaut [FR] Thèse de Fuchs, Outils numériques pour le relevé architectural et la restitution



    Université Henri Poincaré - Nancy I - (2006-11-24), Michel FLORENZANO (Dir.)

    Alain Fuchs

    Cette thèse s'intègre dans le processus qui conduit de l'acquisition numérique 3D à la réalisation de maquettes virtuelles destinées à l'architecture et à l'archéologie. Elle débute par l'étude des techniques d'acquisition 3D utilisées, la lasergrammétrie et la photogrammétrie architecturale, et se poursuit par une analyse comparative détaillée de ces dispositifs, basée sur de multiples expérimentations réalisées sur le terrain lors de la collaboration entre le Map-Crai et le Map-Page. Ensuite une réflexion sur la morphologie architecturale est abordée autour de ses variantes typologiques et architectoniques, suivie par les questions théoriques soulevées par la modélisation 3D et plus spécifiquement la modélisation architecturale.
    Diverses expérimentations sont ensuite présentées, elles constituent le support d'une réflexion sur le développement d'outils numériques destinés à faciliter la modélisation géométrique architecturale. La principale contribution de cette thèse correspond à l'association de cette réflexion empirique à une approche analytique fondée sur nos connaissances théoriques en architecture, qui aboutit à l'identification de primitives géométriques contraintes, les moulures. Les outils numériques ainsi développés dans un logiciel de CAO définissent ces primitives géométriques ajustables dont le champ d'application initial, spécifique à l'architecture classique, sera étendu à l'architecture khmère.
    Enfin une proposition plus évoluée correspondant à la téléologie de cette thèse, obtenir de façon efficace un résultat conforme au cahier des charges de la modélisation architecturale et archéologique, est intégrée dans un logiciel de synthèse d'image.


    Keywords: Scanner laser – lasergrammétrie – photogrammétrie – numérisation 3D – modélisation architecturale – primitives géométriques – CAO – architecture classique – architecture khmère

    Source: http://tel.archives-ouvertes.fr/tel-00145277

    Home is where the .arc is...
    Propos sous license Beerware !!!

 

 
Page 3 sur 40 PremièrePremière 1234513 ... DernièreDernière

Discussions similaires

  1. [ArcGIS 9.x] Outils copy parallele
    Par franze dans le forum Assistance Technique
    Réponses: 3
    Dernier message: 06/07/2010, 10h02
  2. [MapInfo 7.x] Création ligne parallèle
    Par Elminster dans le forum Assistance Technique
    Réponses: 13
    Dernier message: 23/03/2010, 08h31
  3. [Python] A chacun son module : au tour de Geoserver
    Par gene dans le forum Ressources
    Réponses: 1
    Dernier message: 17/02/2010, 16h50
  4. [MapInfo 8.x] Copie parallèle d'une polyligne
    Par Bérangère dans le forum Assistance Technique
    Réponses: 4
    Dernier message: 31/05/2006, 11h26

Liens sociaux

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •