TABLE DES MATIÈRES
REMERCIEMENTS...............................................................................................................................................................
3
DÉDICACE............................................................................................................................................................................3
INTRODUCTION...................................................................................................................................................................4
COLLABORATIONS
EN
2013...............................................................................................................................................4
OBJECTIFS DU
GR2M.........................................................................................................................................................
5
COMPOSITION
DU
GROUPE..............................................................................................................................................
5
Liste des membres
réguliers................................................................................................................................
5
Liste des membres
associés...............................................................................................................................
6
Liste des chercheurs post doctoraux et autres
professionnels................................................... 6
PROGRAMME DE
RECHERCHE EN
MICROÉLECTRONIQUE...................................................................................
7
Domaines.................................................................................................................................................................
7
Activités des membres réguliers.................................................................................................................
7
ACTIVITÉS DU PROFESSEUR
BOIS..........................................................................................................................
8
ACTIVITÉS DU PROFESSEUR
DAVID......................................................................................................................
9
ACTIVITÉS DU PROFESSEUR
AUDET.....................................................................................................................
10
ACTIVITÉS DU PROFESSEUR
BOYER.....................................................................................................................
11
ACTIVITÉS DU PROFESSEUR BRAULT..................................................................................................................
12
ACTIVITÉS DU PROFESSEUR
LANGLOIS..............................................................................................................
13
ACTIVITÉS DU PROFESSEUR
MARTEL.................................................................................................................
14
ACTIVITÉS DU PROFESSEUR
NICOLESCU...........................................................................................................
15
ACTIVITÉS DU PROFESSEUR
SAVARIA................................................................................................................
16
ACTIVITÉS DU PROFESSEUR
SAWAN....................................................................................................................
17
ÉTUDIANTS AUX
CYCLES
SUPÉRIEURS...................................................................................................................
18
ÉTUDIANTS NOUVELLEMENT INSCRITS.............................................................................................................
19
DESCRIPTION DÉTAILLÉE DES PROJETS
D'ÉTUDIANTS....................................................................................
22
SUBVENTIONS
ET CONTRATS..................................................................................................................................
80
Subventions, contrats et conventions de recherche
individuelles....................................... 80
Subventions, contrats et conventions de recherche de
groupe............................................... 82
ÉQUIPEMENT
ÉLECTRONIQUE.................................................................................................................................
84
ÉQUIPEMENT
APPARTENANT AU GROUPE (www.GR2M.polymtl.ca)..........................................................
84
Laboratoire
LASEM
(GR2M/PolyStim/Lasem)................................................................................................
86
ÉQUIPEMENT
OBTENU VIA LA SCM (WWW.CMC.CA)...........................................................................................
86
ÉQUIPEMENT
INFORMATIQUE..................................................................................................................................
87
Équipement informatique prêté par la CMC (www.CMC.ca).............................................................
87
Équipement informatique appartenant au GR2M (www.GRM.polymtl.ca)...............................
87
LOGICIELS DE
MICROÉLECTRONIQUE (EDA)........................................................................................................
88
Logiciels disponibles au GR2M (www.GRM.polymtl.ca)....................................................................
88
PUBLICATIONS
ET RÉALISATIONS..........................................................................................................................
89
Articles de revues acceptés pour
publication...............................................................................
89
Articles de revues publiés de janvier à décembre
2013............................................................... 89
Articles de revues publiés de septembre 2011 à décembre 2012.................................................
90
Articles de conférence de janvier à décembre 2013....................................................................
93
Articles de conférence de septembre 2011 à décembre
2012...................................................... 96
AUTRES PUBLICATIONS
(invitation)...............................................................................................................
100
LIVRES......................................................................................................................................................................
100
Nous tenons tout particulièrement à remercier
notre ancienne secrétaire Mme Ghyslaine Éthier-Carrier qui après 21 années de
loyaux services prend sa retraite bien méritée.
Elle œuvre avec nous, à temps plein ou à temps
partiel, depuis plus de 21 années, soit depuis octobre 1993. Tout au long de sa
carrière, elle a consacré tous ses efforts au bon fonctionnement de notre
groupe de recherche, à la réussite de nos étudiants ainsi qu’au fonctionnement
de nos laboratoires.
Pour son remarquable engagement à veiller à la
réussite de nos activités de recherche avec autant d’ardeur, nous lui
dédicaçons ce Rapport Annuel 2013.
Nous lui souhaitons une très belle retraite.
Figure 1- Gyslaine Ethier Carrier
Nous
désirons remercier tous les membres du GR2M (Groupe de Recherche en
Microélectronique et Microsystèmes) professeurs et étudiants pour les efforts
et l’attention qu’ils ont accordés afin de compléter leurs parties du présent
rapport. Nos remerciements s’adressent aussi à mesdames Ghyslaine Éthier
Carrier pour son excellent travail de secrétariat afin de produire ce rapport
et à Réjean Lepage pour sa collaboration constante et son aide à sa diffusion
sur le WEB.
Le Groupe
de Recherche en Microélectronique et Microsystèmes (GR2M) de l’École
Polytechnique de Montréal a poursuivi sa progression sur plusieurs
fronts. Le présent document décrit ses objectifs, la composition du
groupe, les subventions et contrats obtenus, les équipements et outils qu’il
possède et les publications et principales réalisations récentes. Pendant
l’année 2013, 60 étudiants inscrits à la maîtrise et au doctorat, un
professionnel et deux techniciens ont participé aux travaux de recherche du
groupe, sous la direction de différents professeurs du GR2M et en collaboration
avec des collègues des milieux universitaire et industriel. Les membres du
groupe ont connu des succès aux programmes de subvention du Conseil de
Recherche en Sciences Naturelles et en Génie du Canada (CRSNG) auprès du Fonds
de la recherche Québécoise sur la nature et les technologies (FRQNT), ainsi
qu’au Programme de Recherche Orientée en Microélectronique, photonique et
télécommunication. Citons aussi les projets réalisés avec des partenaires
industriels. Le groupe vise un équilibre entre les recherches orientées et les
recherches académiques, les premières influençant grandement les orientations
développées dans les dernières. Nous croyons fermement qu’il s’agit là
d’un gage de pertinence et de qualité des travaux et des orientations prises
par le groupe.
L’année 2013 a été marquée par plusieurs faits
saillants, notamment les collaborations entre les membres du GR2M entre eux ou
avec des chercheurs d’autres groupes et centres de recherche.
Soulignons à titre d’exemple la collaboration
entre les professeurs, Langlois et Bilodeau (EPM) en vision artificielle, Bois,
Nicolescu, Boland (ETS) et Thibault (ETS) sur la norme ARINC 653, Savaria,
David, Bois et Langlois en vérification et méthodes de conception; Savaria et
Cherkaoui (UQAM) sur la configuration et la vérification de routeurs réseau,
Sawan et Savaria sur la mise en œuvre d’une chaine de conversion d’énergie
reçue par couplage inductif, Sawan, Savaria, Zhu, Kashyap et Laurin, Thibault
(ETS), Boland (ETS), Blaquière (UQAM), et Liu (McGill) sur les capteurs de
position, interfaces et réseaux AFDX pour applications avionics.
Également, mentionnons que Sawan collabore avec
Corcos (McGill) sur les dysfonctions urinaires, avec Dancause (UdeM) sur la
vision et mesures intracorticales, avec Emeriaud (UdeM) sur le neuromonitoring
automatisé, avec Lesage, Lassonde, Nguyen, Deschamps et Tardif (UdeM) sur
l’imagerie clinique, avec Gosselin (Laval) sur le lien magnétique de l’énergie
et finalement Cowan (Concordia) sur les circuits RF.
Sur le plan international, mentionnons que plusieurs
collaborations existent entre les professeurs du GRM et les
professeurs/chercheurs des universités/centres de recherche de la France
(ISAE), de la Suisse (EPFL), de l’Angleterre (Université de West of Scotland),
de la Chine (Université Tsinghua), de l’Arabie Saoudite et du Brésil
(Université fédéral de Santa Catarina).
Enfin, notons que les professeurs Kashyap,
Martel, Meunier, Savaria et Sawan sont titulaires de Chaires de recherche du
Canada.
Tel que
défini par ses statuts, le Groupe de Recherche en Microélectronique et
Microsystèmes (GR2M) a pour objectif général de «promouvoir et regrouper les
activités de recherche en Microélectronique à l’École Polytechnique de
Montréal».
Plus
spécifiquement, le GR2M poursuit les objectifs suivants:
·
Regrouper dans une
entité visible les chercheurs qui œuvrent dans des secteurs reliés à la
microélectronique et les microsystèmes;
·
Offrir aux chercheurs
en microélectronique un lieu de communication et d’échange en vue de promouvoir
et de faciliter la collaboration et le travail en équipe;
·
Assurer le bon
fonctionnement des laboratoires et l’infrastructure du GR2M;
·
Faciliter l’accès aux
technologies de microélectronique aux autres chercheurs de l’École et de
l’extérieur de l’École susceptibles d’en profiter.
Ces
objectifs n’ont pas été modifiés depuis la constitution officielle du groupe.
Le Groupe
de Recherche en Microélectronique et Microsystèmes relève du département de
génie électrique et se compose des membres réguliers, membres associés et
d’autres professionnels et chercheurs :
·
Dr. Guy Bois: professeur titulaire au département
de génie informatique et directeur du Groupe de Recherche en Microélectronique
et Microsystèmes. Il s’intéresse à la conception des systèmes embarqués,
plus particulièrement à leurs spécifications, modélisation, partitionnement
logiciel/matériel, synthèse, vérification fonctionnelle et prototypage.
·
Dr. Jean-Pierre
David: professeur adjoint au département de génie
électrique et codirecteur du Groupe de Recherche en Microélectronique et
Microsystèmes. Il s’intéresse à la conception rapide et fiable de systèmes
numériques à partir d’une description de haut niveau, en particulier pour les
systèmes reconfigurables (FPGA).
·
Dr. Yves Audet: professeur agrégé au département de génie
électrique, ses travaux de recherche portent sur les circuits intégrés analogiques,
les capteurs d’images CMOS, l’imagerie spectrale et les interconnexions
photoniques pour système VLSI.
·
Dr. François Raymond
Boyer: professeur adjoint
au département de génie informatique qui s’intéresse aux architectures et
méthodes de conception des circuits VLSI. Il s’intéresse notamment à
l’optimisation des systèmes exploitant des horloges multi phase.
·
Dr. Jean-Jules
Brault: professeur agrégé
au département de génie électrique et directeur du Laboratoire de Réseaux
Neuronaux (LRN), qui s’intéresse aux diverses architectures et applications des
machines neuronales, virtuelles ou électroniques, de même qu’au développement
de leurs algorithmes d’apprentissage.
·
Dr. Raman Kashyap: Chaire de recherche du Canada en
photoniques avancées, professeur titulaire aux départements de génie
électrique et de génie physique. Il s’intéresse aux nouveaux concepts en
photonique pour les applications en radio sur fibre, technologies et composants
à bandes interdites, biocapteurs, communications optiques, réseaux de Bragg en
fibre optique à base de verre et polymères, nouveaux procédés pour fabriquer
des guides d’ondes et leur intégration avec les circuits électroniques, les
instruments de musique en photoniques, laser semi-conducteur et fibrée, les
effets non linéaires optiques et refroidissement avec les lasers. Il est
membre fondateur du groupe Polyphotonique et le directeur du laboratoire de
concepts photoniques avancés (APCL), directeur du laboratoire d’écriture avec
les lasers, FABULAS, représentant des chercheurs au conseil d’administration de
ICIP, membre de COPL et du CREER.
·
Dr. Pierre Langlois: professeur titulaire au département de
génie informatique, s’intéresse à la conception et à la réalisation de
processeurs configurables pour le traitement d’images et de vidéo, à la vision
artificielle et à l’architecture des ordinateurs.
·
Dr. Sylvain Martel: professeur titulaire au département de génie
informatique et titulaire d’une chaire de recherche du Canada dont le domaine
de recherche est principalement la conception de micro et nano systèmes
électromécaniques, incluant la nano robotique pour les applications au niveau
moléculaire et atomique en touchant plusieurs aspects comme l’instrumentation,
l’électronique, les ordinateurs ainsi que les systèmes reconfigurables.
En nano robotique, nous exploitons les découvertes fondamentales en nano
sciences par la conception de nano robots capables de travailler au niveau du
nanomètre pour créer de nouveaux systèmes, produits et applications.
·
Dr. Gabriela
Nicolescu:
professeure titulaire au département de génie informatique qui s’intéresse à la
conception de haut niveau des systèmes embarqués hétérogènes composés de
sous-systèmes spécifiques aux différents domaines d’application :
logiciel, matériel, mécanique, optique et RF. Elle travaille aussi sur la
conception des systèmes sur puce multiprocesseurs.
·
Dr. Yvon Savaria: professeur titulaire et directeur
de département de génie électrique, titulaire d’une chaire de recherche du
Canada en Conception de systèmes microélectroniques intégrés, responsable
administratif du laboratoire de VLSI. Il s’intéresse à la méthodologie du
design des systèmes intégrés, aux problèmes de tolérance aux pannes et de
testabilité, à la conception et la vérification des systèmes sur puce (SOC), à
la conception des circuits numériques, analogiques et mixtes et aux
applications de ces technologies.
·
Dr. Mohamad Sawan: professeur titulaire au département
de génie électrique et détenteur d’une chaire de recherche du Canada sur les
dispositifs médicaux intelligents et directeur du regroupement stratégique en
microsystèmes du Québec (>>ReSMiQ), qui s’intéresse à la conception et la
réalisation de circuits mixtes (numériques, analogiques, optiques et RF) et à
leurs applications dans les domaines industriel (communication sans fil) et
biomédical (stimulateurs et capteurs sensoriels).
·
Dr. David Haccoun: professeur émérite au département de
génie électrique qui dirige des projets de recherche sur la méthodologie de
conception de codeurs-décodeurs complexes, y compris l’impact de l’intégration
en VLSI. Il collabore avec MM Savaria et Sawan sur l’implantation de
codeurs-décodeurs.
·
Dr. Michel Meunier: professeur titulaire au département
de génie physique et titulaire d’une chaire de recherche du Canada en
micro-ingénierie et nano-ingénierie des matériaux par laser. Il effectue
des projets de recherche sur les procédés pour la microélectronique, plus
spécifiquement sur l’utilisation de lasers dans la fabrication de couches
minces et la modification de matériaux. Il collabore avec Yvon Savaria
sur la restructuration et la calibration par laser pour la microélectronique et
avec Mohamad Sawan sur les microélectrodes.
·
M. Normand
Bélanger associé de
recherche
·
M. Robert
Chebli
associé de recherche
·
M. Saied
Hashemi
associé de recherche
·
M. Éric
Legua
associé de recherche
·
Mme Maryam
Mirzaei associée de recherche
De plus,
les personnes suivantes collaborent aux travaux du groupe à divers titres:
·
M. Réjean
Lepage
Analyste GR2M
·
M. Laurent
Mouden
Technicien du laboratoire GR2M
·
M. Jean
Bouchard
Technicien informatique GR2M
Ces
personnes forment le Groupe de Recherche en Microélectronique et Microsystèmes
de l'École Polytechnique, dont la reconnaissance officielle par l’École
démontre la priorité que celle-ci accorde au domaine de la microélectronique.
Les
programmes de recherche et de formation de chercheurs en microélectronique de
l’École Polytechnique recouvrent les sous-secteurs suivants ;
·
La technologie
microélectronique en elle-même, y compris les problèmes de test et de tolérance
aux pannes et aux défectuosités ;
·
Les applications en
télécommunications, en traitement des signaux et des images, en algorithmes et
architectures parallèles, et en biomédical par la réalisation de capteurs et
micro stimulateurs implantables ;
·
Les logiciels de
synthèse, de conception et de test assistés par ordinateur ;
·
Les dispositifs
électroniques et électro-optiques, ainsi que les technologies de fabrication.
La
description détaillée de notre programme de recherche débute sur une synthèse
des activités de chaque membre au sein du GR2M.
Le
professeur Bois poursuit des recherches dans le domaine de la
Microélectronique, principalement dans le domaine du co-design et de la
co-synthèse conjointe logiciel/matériel pour systèmes embarqués.
De nos
jours, les systèmes embarqués sont de plus en plus présents dans les produits
industriels et commerciaux: contrôleur d’injection d’une voiture, robot
industriel, téléphone cellulaire, etc. Afin de concevoir ces systèmes de plus
en plus complexes, l’ingénieur doit avoir recours à l’utilisation conjointe de
processeurs d’usage général, dont les performances atteignent aujourd’hui des
niveaux très élevés, et de circuits spécialisés chargés de la réalisation de
fonctions spécifiques. De plus, la concurrence sur les produits et les
services, impose à tous, la sévère loi du «temps de mise en marché», qui impose
de réduire fortement le temps alloué au développement. La situation de ces
défis impose donc une approche d’ingénierie simultanée du logiciel et du
matériel, nommé co-design.
Le
professeur Bois travaille au développement de méthodes modernes de conception
conjointe logiciel/matériel. Plus particulièrement, ses travaux se
concentrent autour de deux projets :
1.
Space Codesign
La technologie Space CodesignTM et
sa plate-forme de conception Space Studio consistent en un logiciel facilitant
la conception de systèmes électroniques embarqués. Par simulation, il est
possible de modéliser le comportement d’une application que l’on veut implanter
(par exemple un téléphone cellulaire contiendra des algorithmes spécialisés ou
d’encodage de la voix). De plus, le fait que le tout soit en simulation
permet d’explorer aisément différentes architectures pour ainsi trouver un
compromis du système le plus performant, au coût le plus bas. Cette
caractéristique est apportée par 2 technologies :
Ø Elix permettant l’exploration et la
simulation rapide de différentes configurations d’un même système électronique
embarqué et ;
Ø Simtek permettant de simuler, avec
une grande précision, une configuration particulière choisie avec Elix ou
construite de toute pièce, et tout cela avant même de créer physiquement le
circuit. De plus, un outil complémentaire permet de collecter des
statistiques sur les performances et comportements du système en simulation.
En plus
d’offrir des possibilités d’exploration de différentes architectures grâce à la
simulation, notre technologie propose un flot de conception qui permet à un
utilisateur de partir de la simulation pour arriver à l’implantation finale
(FPGA ou ASIC). Cette caractéristique utilise la technologie GenX de
Space Codesign.
2.
AREXIMAS
Ce projet se concentre sur les systèmes
avioniques basés sur un réseau de processeurs. Ces systèmes se doivent
d’être sécuritaires, fiables et tolérants aux panes. Plus précisément,
nous nous intéressons aux compromis entre la reconfigurabilité, la fiabilité et
le coût de ces systèmes. Deux objectifs généraux sont poursuivis :
Ø Le développement d’un environnement
démonstrateur de plateforme IMA (Integrated Modular Avionics) à faibles coûts,
comportant un simulateur ARINC 653, et
Ø L’analyse et la caractérisation de
l’application de vision EAVS (Enhanced Avionic Vision System) pour estimer ses
ressources en prévision de son prototypage sur plateforme IMA.
Les
partenaires industriels qui collaborent à ces projets sont CMC Electronics et
CAE. Au niveau universitaire les collaborateurs sont les professeurs
Boland et Thibault (ETS), ainsi que Nicolescu et Beltrame de l’École
Polytechnique de Montréal.
Le professeur David mène des activités de
recherche dans le domaine de la synthèse des systèmes logiques
matériel-logiciel, leurs constituants, leurs outils et leurs
applications. Il s’intéresse plus particulièrement aux outils de synthèse
automatique à partir d’une description de haut niveau, aux treillis de calculs,
à l’implantation d’opérateurs arithmétiques en virgule flottante et de manière
générale à l’implantation optimale des tâches disposant d’un niveau de
parallélisme élevé. Au niveau applicatif, le professeur David travaille
dans le domaine de la sécurité informatique (analyse profonde des paquets
Ethernet pour le repérage de fichiers connus), aux applications de calcul
matriciel pour la simulation de systèmes électriques et de manière générale à
toutes les applications qui demandent une puissance de calcul supérieure à ce
que peut offrir un processeur standard.
Un système reconfigurable est un circuit logique programmable dont le
comportement sera déterminé au moment de sa programmation. Aujourd’hui,
ces circuits intègrent plusieurs noyaux de processeurs, des centaines de
mémoires, des centaines de multiplieurs, des dizaines de milliers de fonctions
logiques programmables, de multiples ressources dédiées et un immense réseau de
connexions configurables permettant d’interconnecter ces ressources pour
réaliser un circuit complexe et hautement parallèle. Ils concurrencent de
plus en plus les circuits dédiés de type ASIC, car on peut les
reprogrammer à volonté et leur densité atteint maintenant la dizaine de
millions de portes logiques équivalentes.
Les circuits reconfigurables relèvent à la fois du Génie Électrique (GÉ) et
du Génie Logiciel (GL). Une fois le circuit physique réalisé (GÉ), il
reste à le programmer (GL). Toutefois, la programmation sert à
implémenter un circuit avec des signaux logiques qui se propagent d’une manière
semblable à ce qui se passe dans un circuit logique traditionnel (GÉ).
Enfin, ces circuits contiennent souvent un ou plusieurs processeurs devant être
programmés (GL). Les deux domaines sont donc très étroitement reliés et
il devient nécessaire d’avoir une vision plus large qui réunit les deux
disciplines.
Notre programme de recherche principal, subventionné par le CRSNG, consiste
à développer un nouveau langage de description de matériel (HDL) d’un niveau
d’abstraction intermédiaire entre les langages de programmation utilisés en GL
et les langages de description de matériel utilisé en GÉ. Nous visons à
décrire des circuits au niveau fonctionnel (algorithmique) et développons un
compilateur (CASM) capable de transformer cette description en un circuit de
manière automatique et sure par construction. En résumé, notre langage
permet de décrire des réseaux de machines algorithmiques qui traitent et
s’échangent des jetons de données en parallèle, un peu sur le modèle de CSP (Communicating
Sequential Processes) et SDL (Specification and Description Language).
Une grande nouveauté par rapport aux ASM (Algorithmic State Machine)
traditionnels consiste en la possibilité de faire des appels (et donc des
retours) d’états d’une manière semblable à un appel de méthode en logiciel ou
encore une continuation dans les langages fonctionnels. Il devient alors
possible de synthétiser des machines récursives, ce qui nous a permis, par
exemple, d’implémenter une version de l’algorithme QuickSort (un algorithme de
tri rapide hautement récursif) sur FPGA très facilement. En outre,
l’outil génère automatiquement tous les signaux de contrôle pour la
synchronisation des envois-réceptions des jetons de données dans tout le réseau
sans perdre de cycle d’horloge (possiblement sous la forme de pipeline
continu). Le concepteur peut donc se concentrer sur les aspects
algorithmiques et déléguer la tâche de réalisation du circuit au
compilateur. Toutefois, l’utilisateur averti a conscience de l’architecture
qui sera synthétisée et peut, dans la manière dont il décrit l’algorithme,
influencer celle-ci.
Les
activités du professeur Audet sont reliées aux capteurs photoniques, fabriqués
en procédé CMOS, visant deux champs d’applications spécifiques soient :
les capteurs d’images intégrés et les détecteurs photoniques de haute
performance pour système VLSI à interconnections optiques.
1.
Les capteurs
d’images CMOS
Ce
programme de recherche adresse la problématique de conception et de fabrication
de capteurs d’images CMOS de grande surface, qui permettrait d’obtenir une
caméra numérique de résolution spatiale comparable à celle d’une caméra avec
pellicules chimiques photosensibles. On vise un capteur ayant une matrice
de pixel de 36 x 24 mm de surface pour atteindre la compatibilité avec la gamme
des lentilles développées pour la photographie SLR 35 mm.
Outre la
réalisation d’un capteur d’images de grande surface, les techniques de
conception de pixels redondants avec autocorrection développées sont aussi
utiles à la réalisation de capteurs d’images employés dans des environnements
hostiles comme l’espace, les mines, les réacteurs nucléaires, etc., là où une
caméra peut-être exposée à des radiations, des températures et des pressions
extrêmes pouvant endommager le capteur. Ainsi, les propriétés
d’autocorrection de l’architecture redondante permettront à la caméra de
transmettre des images plus longtemps dans ces milieux hostiles où le
remplacement et la réparation sont difficiles, voire impossibles.
2.
Les détecteurs
photoniques
Ici on
s’intéresse au développement de technique de propagation de signaux par
modulation photonique, tant sur un même circuit intégré qu’entre puces d’un
même système, de façon à éliminer les interconnexions métalliques critiques qui
limitent la performance des systèmes. Des taux de propagation supérieurs
à 1 Gb/s sont visés.
Bien que
la recherche sur les interconnections photoniques ait favorisé jusqu’à
maintenant les dispositifs III-V pour la conversion de signaux électriques à
signaux photoniques, la diminution constante de la taille des structures
fabriquées sur technologie CMOS pourrait avantager les dispositifs photoniques
au silicium notamment au niveau des photo-détecteurs. Avec la diminution
de la taille des structures, les capacités parasites des composants actifs
diminuent également de sorte qu’un faisceau lumineux de moindre énergie est
requis pour activer une cellule photo-détectrice au silicium et une réponse
plus rapide peut être obtenue. Les avantages d’un
photo détecteur au silicium pouvant être intégré à même une puce VLSI sont
considérables, même si les performances sont moindres qu’un photo-détecteur en
technologie III-V. Citons entre autre la simplicité du procédé de
fabrication CMOS comparé aux technologies hybrides III-V – CMOS et
l’élimination des circuits liés à l’intégrité des signaux d’horloge en
amplitude et en phase, tels que les répétiteurs et les circuits de verrouillage
de phase (PLL). À l’heure actuelle, dû aux problèmes de délais associés
aux interconnections métalliques, il est de plus en plus difficile d’assurer la
synchronisation entre les différents modules d’un système VLSI, de sorte que
les techniques de propagation de signaux asynchrones sont maintenant envisagées
pour relier des modules sur une même puce, ajoutant à la complexité du
système. Les interconnexions photoniques assureront la performance des
systèmes VLSI sans ajouter à leur complexité.
Le professeur Boyer conduit des recherches
incluant les domaines de la microélectronique, et du traitement de
signal. Plus spécifiquement, il s’intéresse au design, à la synthèse et à
l’optimisation des systèmes conjoints logiciel/matériel dédiés, ainsi qu’au
développement d’architectures prenant parti d’un nouveau type d’horloge, dans
le but d’obtenir une bonne performance à faible consommation d’énergie.
L’horloge à période variable cycle par cycle est encore un concept
relativement nouveau. L’idée est de permettre de moduler la longueur des
cycles d’horloges pour pouvoir suivre précisément un ordonnancement. Cet
ordonnancement peut être fait à l'avance, mais aussi à l’exécution, pour
pouvoir traiter de manière optimale les expressions conditionnelles et pour
pouvoir tenir compte d’autres facteurs qui ne sont pas connus lors de la
compilation (ou synthèse). Dans le cas de systèmes très dynamiques,
devant réagir à des stimuli externes, l’ordonnancement peut s’ajuster pour
rencontrer les latences maximales permises tout en minimisant la consommation
d’énergie. À l’exception des circuits asynchrones, les circuits ont
actuellement très majoritairement une horloge fixe, ou variant lentement dans
le temps, qui limite la possibilité d’ordonnancement. Pour obtenir le
meilleur ordonnancement possible, il faut relâcher les contraintes de l’horloge
et ce nouveau type d’horloge permet beaucoup plus de flexibilité.
Ses publications récentes sur ce sujet concernent principalement la
réduction de la gigue de l’horloge ainsi que l’utilisation de cellules
numériques normalisées pour réduire les temps de conception et simplifier la
mise à l’échelle.
La conception de systèmes dédiés demande à la fois de déterminer la
structure matérielle et le logiciel devant s’exécuter sur ce matériel.
Une approche conjointe logicielle/matérielle est nécessaire pour la conception
et l’optimisation d’un tel système. Pour des systèmes dédiés, les outils
doivent permettre la spécialisation (paramétrisation) des composantes.
Puis la partie logicielle doit être compilée pour une architecture parallèle
possiblement hétérogène (avec des processeurs de plusieurs types différents) et
comportant des instructions spéciales. Ses recherches se situent sur
différents plans, dont l’automatisation de la séparation logiciel/matériel, la
compilation parallélisante pour un système hétérogène configurable, et une
diminution du temps associé à l’assemblage et test du système, pour un temps de
mise en marché minimum. Une application actuellement visée est les
réseaux sans fil sur le corps pour le traitement de données médicales.
Applications :
Traitement de signal et isolation de la voix dans
des prothèses auditives numériques :
Le domaine de la prothèse auditive numérique est en expansion, due au fait
que la miniaturisation des processeurs le permet, mais aussi au fait que la
demande en prothèses auditives augmente (la population vieillit) et que les
gens recherchent une qualité supérieure. L’utilisation de plusieurs
microphones est actuellement une des méthodes qui a le plus de succès pour
augmenter la discrimination des sons et améliore l’intelligibilité. Par
contre, le traitement fait sur ces sources pourrait être amélioré, tout en
gardant une petite taille et une faible consommation d’énergie.
Capture de mouvements du corps humain :
Des capteurs inertiels sont utilisés pour analyser les mouvements 3D du
corps humain. Cette analyse de mouvement peut s’appliquer au domaine
médical pour, par exemple, détecter des anomalies, ou sportifs, pour améliorer
le mouvement, mais aussi à l’enseignement et à l’art. Un logiciel
d’enseignement de direction d’orchestre est en développement avec cette analyse
de mouvements.
Les principaux partenaires qui collaborent sur ces
recherches sont le professeur Y. Savaria (génie électrique, École
Polytechnique), sur le côté matériel, le professeur H.T. Bui (Sciences
appliquées, Université du Québec à Chicoutimi), sur les convertisseurs en
cellules normalisées, et le professeur P. Bellomia (faculté de musique,
Université de Montréal), sur la capture de mouvement.
Le professeur Brault dirige le LRN (Laboratoire de
Réseaux Neuronaux.) Ses recherches visent plus spécifiquement
l’application les algorithmes d’apprentissage (AA) à des problèmes d’inférence
sur des données expérimentales en utilisant des machines neuronales (MN),
virtuelles ou électroniques. Le champ d’application des AA/MN est très
vaste puisque les MN sont des approximateurs universels utilisés tant en classification,
en régression qu’en estimation de fonction de densité. D’autre part, vu
l’homogénéité des traitements réalisés par les MN, ils peuvent souvent être
intégrés relativement aisément sur des circuits électroniques.
Les principales difficultés que l’on rencontre dans le design de ces
machines proviennent du fait qu’elles sont habituellement adaptées
itérativement et que l’information est massivement distribuée dans les
interconnexions de la MN. Parmi ces difficultés, notons, le choix du type
de neurones à utiliser (déterministes ou stochastiques, modèle de
McCulloch-Pitts ou Hodgkin-Huxley), le nombre de neurones (capacité à s’adapter
au problème) le type d’interconnexions (avec ou sans récurrence), le
paradigme/loi d’apprentissage (supervisé ou non, correction d’erreurs,
minimisation d’entropie, etc.), la fonction de cout à minimiser, etc.
Tous ces «hyperparamètres» doivent évidemment conduire à la conception d’une
machine capable de bien généraliser (interpoler ou extrapoler) sur de nouvelles
données.
Outre les architectures bien connues de type MLP (ou RBF) optimisées pour
diverses applications (antennes, parole, robotique), les MN qui retiennent
particulièrement notre attention sont les machines stochastiques causales
(réseaux bayesiens) et les machines à états liquides (MEL) (également appelées
«réseaux à échos»). Pour le premier cas, ce type de système comporte
habituellement un très grand nombre de variables stochastiques et les
techniques d’optimisation comme le recuit simulé, sont souvent jugé
inutilisable à cause des temps de calcul ou de la mémoire requise pour leur
mise en œuvre. En effet, pour valider un réseau bayesien, on doit générer
un très grand nombre de cas (vecteurs de tests) en fonction d’une distribution
de probabilité multivariable. On se frappe alors au problème de la
«malédiction de la dimensionnalité». Une modification possible est
l’ajout d’aspects déterministes dans le processus d’optimisation conduisant par
exemple au recuit déterministe RD (Deterministic Annealing). Dans le
second cas, (MEL), le problème est de concevoir une machine à rétroaction
massive qui se comporte de façon quasi chaotique afin d’explorer un espace
d’états continus (ou liquides).
Concernant les aspects électroniques de ces projets, nous étudions la
conception de circuits échantillonneurs en fonction d’une distribution de
probabilité d’un espace approximé par un réseau bayesien. Nous modifions
les circuits logiques traditionnels afin de les rendre probabilistes.
D’autre part, des circuits appelés «neurones à pulses» ont été simulés sur
SPICE pour équiper des robots suiveurs.
Le professeur Langlois s’intéresse à la conception et à la réalisation de
processeurs configurables pour le traitement d’images et de vidéo, à la vision
artificielle et à l’architecture des ordinateurs.
Des projets sont en cours dans deux domaines principaux:
Conception de processeurs spécialisés et
configurables pour le traitement vidéo.
Ce projet est mené conjointement avec les professeurs Savaria et Bois du
GR2M.
Les processeurs configurables offrent d’intéressantes solutions en
informatique embarquée pour l’implémentation d’algorithmes de traitement
d’image et de traitement du signal en temps réel. Les besoins en calculs,
les contraintes de synchronisation, la réduction des couts et les limites en
consommation de puissance pour ces applications écartent habituellement les
solutions purement logicielles implémentées sur un processeur à usage
général. Les processeurs configurables ont l’intérêt de pouvoir être
programmés à l’aide de langages de haut niveau familiers pour la plupart des
concepteurs. Les processeurs configurables commerciaux sont paramétrables
et extensibles. Des caractéristiques spécifiques comme un multiplicateur
peuvent être activées ou non. Des structures peuvent être ajoutées au
processeur, comme des instructions additionnelles, des blocs de registres
élargis et des interfaces mémoires particulières.
Les objectifs de ce projet incluent le développement de méthodologies de
conception pour des processeurs spécialisés (Application Spécifique Instruction
set Processor - ASIP), principalement pour des applications de traitement vidéo
en temps réel.
Inspection
des images du fond d’œil pour la détection de maladies
Ce projet est
mené conjointement avec la professeure Chériet du département de génie
informatique et génie logiciel.
Nous nous
attaquons à plusieurs problèmes reliés au traitement d’images de fonds d’œil.
Nous considérons tout d’abord l’évaluation objective de la qualité d’images de
fonds d’œil de façon à déterminer si une image est satisfaisante ou non pour
des traitements plus avancés. On peut ainsi déterminer si un patient peut quitter
une clinique ophtalmologique ou si d‘autres images doivent être prises. Nous
avons ensuite considéré le problème de la segmentation des lésions sombres sur
la rétine, indicatives de maladies comme la rétinopathie diabétique. Nous
considérons finalement l’accélération du traitement en vue de la segmentation
automatisée du réseau vasculaire, une étape préalable à la détection de
maladies de l’œil et à l’identification du risque de maladie cardio-vasculaire.
Vision
artificielle
Ce domaine de
recherche est poursuivi en collaboration avec le professeur Bilodeau du
département de génie informatique et génie logiciel.
D’une part,
nous avons travaillé à proposer une solution automatique qui se repose sur la
vision informatique pour suivre et annoter trois comportements de rongeurs dans
un environnement biomédical typique : statique, élevé et en train
d’explorer.
D’autre part,
nous avons collaboré avec Logi-D, un fournisseur de solution de gestion de
matériel dans des hôpitaux et des cliniques médicales. Le projet vise à faire
le suivi de l’inventaire médical utilisé par le personnel infirmier. À l’aide
d’une caméra placée au plafond, le système tente de reconnaître les
compartiments de différents tiroirs et d’en évaluer leurs contenus.
Les
activités du professeur Martel se situent principalement dans la recherche et
le développement de systèmes miniatures intelligents et plus particulièrement
dans le domaine de la nanorobotique. L’objectif actuel consiste à
développer des nanorobots avec une infrastructure conçue pour supporter une
flotte d’une centaine de ces nanorobots capables d’opérer très rapidement et de
façon autonome au niveau moléculaire et jusqu’au niveau des atomes.
Pour ce genre
de projets, nous devons développer plusieurs systèmes électroniques et
microélectroniques spécialisés pour supporter, contrôler et implanter plusieurs
tâches complexes incluant par exemple :
·
Système en temps réel et de
très haute performance de positionnement, de navigation et communication à
infrarouge pour plates-formes nanorobotique ;
·
Système de positionnement
miniature de résolution atomique basé sur les techniques de microscopie à effet
tunnel ;
·
Systèmes et instruments
miniatures de manipulation, mesure, synthèse et fabrication au niveau
moléculaire ;
·
Système de contrôle embarqué
pour déplacement de nanorobots, etc.
Notre intérêt
est donc le développement de divers circuits miniatures (analogue et numérique)
de haute performance en utilisant diverses approches, techniques, outils de
conception et systèmes de vérification/validation essentiellement au niveau
système sur puces (SoC).
La
miniaturisation, précision, vitesse et le rendement en temps réel sont des
aspects très importants et critiques dans la plupart des systèmes électroniques
développés pour ce genre de projet. Les systèmes à concevoir sont aussi
généralement très complexes et exigeants et font appel à plusieurs technologies
qui doivent être intégrées dans des systèmes micro-mécatroniques avec
instruments intégrés de très haute précision et opérant à de très grandes
vitesses.
Gabriela Nicolescu conduit des recherches sur
la conception des systèmes embarqués. Deux types de systèmes sont visés
par ses recherches : la dernière génération des systèmes embarqués
intégrant des sous-systèmes hétérogènes provenant de différents domaines
d’application (ex. : électronique, optique, mécanique, RF) et les systèmes
sur puce intégrant plusieurs processeurs hétérogènes (ex. : processeurs
configurables, processeurs spécialisés pour un type d’application, processeurs
d’usage général). Les thèmes de recherche seront élaborés brièvement par
la suite.
Conception des systèmes embarqués hétérogènes
Nos travaux sur la conception des systèmes
embarqués hétérogènes portent sur les nouvelles techniques pour la modélisation
et la validation globale de ces systèmes. Nous travaillons sur la
définition et la mise en place d’un environnement permettant la coopération des
concepteurs provenant des domaines d’application différents, avec de
différentes cultures et utilisant différents niveaux d’abstraction (ex. :
RTL, niveau transactionnel), langages de spécification (ex. : VHDL,
SytemC, Matlab) et modèles d’exécution (simulation native, simulation à base
d’ISS). Nos travaux explorent particulièrement la modélisation et la
simulation des interactions entre les composantes fournies par divers concepteurs
et nous explorons les techniques de génération automatique des interfaces
d’adaptation entre ces composantes.
Nous utilisons comme applications concrètes les
MEMS (micro electro-mechanical systems), MOEMS (micro opto-electro-mechanical
systems) et les réseaux optiques sur puce.
Conception des systèmes sur puce multiprocesseur
Nos travaux sur la conception des systèmes sur
puce multiprocesseurs portent sur l’exploration architecturale et la validation
par simulation de ces systèmes.
Concernant l’exploration architecturale nous
étudions des nouvelles architectures mémoires et les algorithmes efficaces pour
mapper les différentes applications sur ces architectures. Nous explorons
aussi l’impact de l’implémentation des systèmes d’exploitation sur l’efficacité
des systèmes multiprocesseurs sur puce. Les approches prises en compte
sont : les systèmes d’exploitation implémentés en logiciel, les systèmes
d’exploitation implémentés en matériel, et les systèmes d’exploitation
logiciels/matériels. Nous explorons aussi l’impact de l’intégration sur
même puce des processeurs différents et des systèmes d’exploitation implémentés
par les différentes techniques présentés plus haut.
Concernant la validation des systèmes,
multiprocesseurs, nous explorons de nouveaux modèles de simulation permettant
une validation rapide et précise de ces systèmes. Nous étudions les
modèles de simulation de haut niveau pour les parties logiciels dépendants du
matériel (hardware dependent software) pour la simulation native du logiciel
embarqué.
Nous évaluons nos approches à l’aide des
applications multimédias (ex. : MPEG4, DivX).
Il
conduit des recherches selon deux grands axes : l’élaboration de méthodes
de conception et l’utilisation des technologies microélectroniques dans des
applications spécifiques. Le premier axe englobe des travaux sur la
conception de chaines d’alimentation pour les microsystèmes embarqués et les
méthodes de conception et de synchronisation des systèmes intégrés. Il
englobe aussi des techniques d’autotest et de tolérance aux pannes et aux
défectuosités. Le second axe couvre des thèmes divers liés aux
applications des microsystèmes intégrés comme la conception de systèmes de
radio configurable, la conception de décodeurs convolutionnels, la conception
d’une plate-forme SOC pour la réalisation de processeurs réseau et de systèmes
de traitement vidéo ainsi que sur la conception d’un système de prototypage
rapide. Plusieurs de ces travaux sont réalisés en collaboration avec
d’autres chercheurs dont plusieurs sont membres du ReSMiQ. La suite
reprend chacun de ces thèmes en élaborant brièvement.
Nos
travaux sur les méthodes de conception explorent diverses classes de circuits
nécessaires pour la mise en œuvre de chaines d’alimentation de
microsystèmes intégrés comme des redresseurs à faible chute de tension et des
convertisseurs DC-DC à commande asynchrone. Nous explorons aussi des
méthodes de synchronisation efficaces pour les systèmes intégrés.
Nous
explorons les méthodes efficaces pour la conception d’architectures intégrées.
Ces architectures doivent souvent être adaptées à la classe d’application
ciblée. Cela conduit parfois à des plateformes composées de modules
paramétrables, réutilisables et compatibles entre eux qui forment la base d’une
architecture flexible pour la classe d’application ciblée. Nos recherches
portent aussi sur plusieurs techniques pour la conception de processeurs
configurables visant l’accélération des calculs. Ces techniques
permettent notamment de réduire considérablement l’énergie requise pour
effectuer un traitement.
Enfin, en
rapport avec les techniques de tolérance aux pannes, nous les explorons dans le
cadre d’un projet qui vise à gérer l’effet des radiations sur l’électronique
ainsi que dans le cadre d’un projet qui vise la réalisation par circuit intégré
à l’échelle de la tranche (WSI) d’une technologie de prototypage rapide pour
les systèmes électroniques complexes.
Dans le
cadre de cet axe, nous explorons un ensemble d’applications. Plusieurs de
ces applications permettent d’explorer les méthodes de dimensionnement
automatique des chemins de données. Nous explorons les architectures
possibles pour la mise en œuvre des systèmes de traitement vidéo.
Nous
travaillons aussi à la mise en œuvre de diverses classes de modules nécessaires
pour la mise en œuvre de radios configurables, de processeurs réseau et de
systèmes de traitement vidéo.
Un de nos
projets important porte sur la conception d’un réseau de communication fiable
pour la transmission des données critiques pour le domaine de l’aéronautique
parrainé par Thales et Bombardier. Un autre projet parrainé par Ericsson porte
sur la conception d’équipement réseau virtualisé.
Enfin, en
collaboration avec Technocap, UQAM, UQO et plusieurs autres participants, nous
élaborons une technologie d’intégration configurable pour les systèmes
électroniques dans le cadre du projet DreamWafer.
Le professeur Sawan dirige une équipe de
recherche ayant des activités qui se diversifient selon les grandes priorités
suivantes: la conception, la réalisation et le test des circuits intégrés
analogiques, mixtes et à fréquences radio; la conception des systèmes pour
l'acquisition et le traitement de signal et d'image, l’assemblage et
l’encapsulation de dispositifs électroniques; le prototypage rapide se servant
de circuits et microsystèmes reconfigurables. L'ensemble de ces priorités
s'articule autour de deux objectifs essentiels soient la réalisation de modules
et de systèmes complets dédiés à des applications industrielles variées tel que
les télécommunications, et la mise en œuvre de dispositifs médicaux servant à
la récupération des organes et/ou des fonctions chez les patients ayant perdu
l'usage (ou n'ayant pas) de ces fonctions, plus particulièrement des micro
stimulateurs et capteurs sensoriels implantables et non-implantables et des
systèmes optiques et ultrasoniques portables.
En particulier, le professeur Sawan s’intéresse
aux convertisseurs analogiques à numérique (CAN): rapide, à haute précision et
à très basse alimentation et consommation, aux filtres reconfigurables et à
bande passante élevée, aux préamplificateurs à très faible niveau de bruit et à
large bande passante et programmables, aux régulateurs de tension. Aussi, des
nombreux autres circuits intégrés mixtes font l'objet de nos travaux de
recherche dans le cadre des applications médicales : capteurs et micro
stimulateurs, conversion optique – électrique, ultrasons, microélectrodes,
techniques de mesures intégrés, etc. Ajoutons que nous menons des travaux
dans le domaine de communications sans fil et l’avionique, plus spécifiquement,
nous travaillons à la mise au point d’interfaces pour divers capteurs, des
liens électromagnétiques efficaces, etc.
Les systèmes dédiés à des applications
médicales doivent être performants (dimensions réduites et à très basse
consommation d'énergie), fiables et flexibles. Ces applications
pluridisciplinaires regroupent des activités des différentes disciplines
connexes en sciences et génie. Ceci implique des connaissances en physique,
mécanique, chimie, biologie, biomatériaux, etc. Nous nous intéressons à mettre
en œuvre un bon nombre de ces systèmes soit : un stimulateur implantable
urinaire servant à contrôler les deux fonctions de la vessie (rétention et
incontinence); un implant visuel dédié à la création d'une vision acceptable
chez les non-voyants, un dispositif capteur de signaux neuronaux dans le but de
mesurer le volume d'urine dans la vessie et nous construisons des structures
hétérogènes basées sur microsystèmes, soient des laboratoire-sur-puces. Ces
derniers servent à mettre au point des outils de diagnostic cellulaire. Nous
poursuivons nos travaux sur les techniques de télémétrie pour la mesure de
divers paramètres biologiques. Nous nous servons des techniques optiques dans
le domaine de l’imagerie clinique basée sur la spectrométrie proche infrarouge.
Aussi, nous nous intéressons à la réalisation des systèmes ultrasoniques
portables.
Titulaire d’une Chaire de recherche du Canada
sur les dispositifs médicaux intelligents, professeur Sawan est membre de
plusieurs comités d’organisation et de programme de conférences nationales et
internationales. Fondateur de la conférence internationale IEEE-NEWCAS,
fondateur du laboratoire de neurotechnologies Polystim et directeur du
regroupement stratégique en microsystèmes du Québec (ReSMiQ), éditeur et
co-éditeurs de plusieurs revues internationales et membre de «Board of
Governors» de la société circuits et systèmes de IEEE (2013-2015), élu
«Distinguished Lecturer» de la société Solid-State Circuits de IEEE
(2011-2012). Professeur Sawan est Fellow de l’IEEE, Fellow de l’académie
Canadienne de génie, Fellow des instituts canadiens des ingénieurs, Fellow de
IEEE et Officier de l’ordre national de Québec. Pour plus de détails, veuillez
consulter la page http://www.mohamadsawan.org.
Pour plus de détails sur les différents travaux
cités ci-dessus, le lecteur est invité à lire les descriptions des projets
d'étudiants dans ce rapport et à consulter notre site web au
http://www.polystim.ca.
Étudiants aux cycles supérieurs qui ont
effectué des recherches associées au GR2M durant la période couverte par ce
rapport:
Nom de l'étudiant |
Diplôme en cours |
Directeur |
Codirecteur |
Abdollahifakhr, Hanieh |
M.Sc.A. |
Y. Savaria |
|
Akbarniai Tehrani Mona |
Ph.D. |
Y. Savaria |
J.J. Laurin |
Arfaoui, Nadia |
M.Sc.A. |
M. Sawan |
P. Pouliot |
Bany Hamad, Ghaith |
Ph.D. |
Y. Savaria |
|
Ben Cheikh, Taieb Lamine |
Ph.D. |
G. Nicolescu |
|
Bendaoudi, Hamza |
Ph.D. |
P. Langlois |
|
Berrima, Safa |
M.Sc.A. |
Y. Savaria |
Y. Blaquière |
Blouin, Frédéric |
M.Sc.A. |
P. Langlois |
G.A. Bilodeau |
Champagne, Pierre-Olivier |
M.Sc.A. |
M. Sawan |
E. Ghafar-Zadeh |
Charasse, Sylvain |
M.Sc.A. |
Y. Savaria |
|
Daigneault, Marc-André |
Ph.D. |
J.-P. David |
|
Darvishi, Mostafa |
Ph.D. |
Y. Audet |
Y. Blaquière |
Dehbozorgi, Maya |
M.Sc.A. |
M. Sawan |
P. Pouliot |
Falcon, Jeff |
M.Sc.A. |
G. Bois |
|
Fourmigue, Alain |
Ph.D. |
G. Nicolescu |
|
Ghane-Motlagh, Bahareh |
Ph.D |
M. Sawan |
|
Gholamzadeh, Bahared |
M.Sc.A. |
M. Sawan |
|
Guillemot, Mikael |
M.Sc.A. |
Y. Savaria |
|
Hached, Sami |
Ph.D. |
M. Sawan |
|
Hamie, Ali |
M.Sc.A. |
M. Sawan |
|
Hasanuzzaman, Md |
Ph.D. |
M. Sawan |
|
Hussain, Wasim |
Ph.D. |
Y. Savaria |
|
Kamrani, Ehsan |
Ph.D. |
M. Sawan |
F. Lesage |
Karimian-Sichany, Masood |
M.Sc.A. |
M. Sawan |
|
Kassab, Amal |
M.Sc.A. |
M. Sawan |
|
Keita, Abdoul-Kader |
M.Sc.A. |
P. Langlois |
|
Keklikian, Thalie Léna |
M.Sc.A. |
Y. Savaria |
|
Khandzadi, Himan |
M.Sc.A. |
J.P. David |
Y. Savaria |
Koubaa, Zied |
M.Sc.A. |
M. Sawan |
|
Kowarzyk Moreno, Gilbert |
Ph.D. |
Y. Savaria |
D. Haccoun |
Krouchev, Nedialko |
Ph.D. |
M. Sawan |
A. Vinet |
Laflamme-Mayer, Nicolas |
Ph.D. |
M. Sawan |
Y. Blaquière |
Larbanet, Adrien |
M.Sc.A. |
J.-P. David |
|
Legault, Vincent |
M.Sc.A. |
G. Bois |
|
Li, Meng |
Ph.D. |
Y. Savaria |
G. Zhu |
Li, Nan |
Ph.D.. |
M. Sawan |
|
Ly, My Sandra |
M.Sc.A. |
M. Sawan |
|
Massicotte, Geneviève |
M.Sc.A. |
M.Sawan |
|
Mehri Dehnavi. Marzieh |
M.Sc.A. |
Y. Audet |
G. Gagnon |
Moradi, Arash |
Ph.D. |
M. Sawan |
|
Mouret, Geoffroy |
M.Sc.A. |
J.-J. Brault |
|
Nabovati Khormazard, Ghazal |
Ph.D. |
M. Sawan |
E. Ghafazadeh |
Najapour-Foroushani, Armin |
M.Sc.A. |
J.-J. Brault |
|
Nishi, Romain |
M.Sc.A |
Y. Savaria |
G. Zhu |
Nsame, Pascal |
Ph.D. |
G. Bois |
Y. Savaria |
Rivard-Girard, Simon |
M.Sc.A. |
G. Bois |
|
Salam Tariqus, Mohammad |
Ph.D. |
M. Sawan |
|
Sharafi, Azadeh |
Ph.D. |
S. Martel |
|
Siadjine Njinowa, Marcel |
Ph.D. |
H.T. Bui |
F. R. Boyer |
Stimpfling Thibault |
M.Sc.A. |
M. Savaria |
|
Taboubi, Mohamed |
M.Sc.A. |
P. Langlois |
C. Morency |
Tremblay, José-Philippe |
Ph.D.. |
Y. Savaria |
|
Vakili, Shervin |
Ph.D |
P. Langlois |
G. Bois |
Wang, Yiqiu |
M.Sc.A. |
M. Sawan |
|
Watson, Meghan Chelsea |
Ph.D. |
M.Sawan |
F.Lepore, N. Dancause |
Zgaren, Mohamed |
Ph.D. |
M. Sawan |
|
Zhang, Kai |
Ph.D. |
Y. Audet |
|
Zheng, Yushan |
Ph.D. |
M. Sawan |
|
Nom de l'étudiant |
Diplôme en cours |
Directeur |
Codirecteur |
Bao, Lin |
M.Sc.A. |
G. Bois |
|
Bouali, Moez |
Ph.D. |
M. Sawan |
|
Fartoumi, Sina |
M.Sc.A. |
M. Sawan |
G. Emeriaud |
Khamsehashari, Elham |
Ph.D. |
Y. Audet |
|
Rahmani, Zahra |
Ph.D. |
Y. Savaria |
J.F.Frigon |
Saha, Sreenil |
Ph.D. |
M. Sawan |
F.Lesage |
Sestier, Patrick |
M.Sc.A. |
G. Bois |
|
Zabihien, Alireza |
Ph.D. |
M.Sawan |
|
TITRES DES PROJETS ET DIPLÔMES EN COURS DE CHAQUE ÉTUDIANT
Cette section contient une liste de projets
avec le nom des personnes concernées. Plus de détails sur chacun des
projets se trouvent dans les descriptions individuelles des étudiants
chercheurs.
ABDOLLAHIFAKHR, Hanieh
DIPLÔME : M.Sc.A.
TITRE:
Transformation de Fourier rapide et efficace
pour application de la radio cognitive.
RÉSUMÉ:
Le concept de la radio cognitive (CR) a
récemment été proposé dans le but d'augmenter la capacité de communication de
données sans fil en augmentant l'efficacité de l'utilisation du spectre de
fréquence. En outre, dans cette plate-forme toutes les unités détectent le spectre
à l'avance afin de trouver une bande inoccupée dans leur environnement. La
détection de spectre se fait par l'intermédiaire de la transformée de Fourier
rapide (FFT). Le traitement de cet algorithme dans une large bande de
fréquences exige des processeurs puissants qui consomment beaucoup d’énergie.
Dans les communications sans fil, la consommation d'énergie est toujours une
question importante et tous les appareils de téléphonie mobile ont besoin
d'avoir des piles de longue durée. Par conséquent, les processeurs FFT économes
en énergie sont très demandés dans ce contexte. Les techniques pour réduire la
consommation d'énergie vont être étudiées dans ce projet de recherche dans le
cadre d’une maitrise en génie électrique. Cela se fera à travers l'examen de
deux aspects de ces deux algorithmes classiques de traitement du signal et des
architectures de mise en œuvre sur réseaux de portes programmables (FPGA)
également.
PROBLÉMATIQUE:
Dans une plate-forme de radio cognitive, la
technique de multiplexage de fréquence orthogonale est utilisée pour la
modulation et la démodulation. En outre, une large gamme de fréquences est
divisée en plusieurs canaux à bande étroite. Chaque canal peut être affecté à
un type spécifique de dispositif radio pour la communication. Tout nouveau
dispositif qui entend occuper un canal doit d’abord scanner toute la bande,
puis occuper un canal libre. Ceci peut être effectué par un processeur FFT.
Dans la plupart des cas, le groupe est peu occupé. En outre, il existe de
nombreux zéros dans les compartiments de fréquence qui ne doivent pas être
calculés. Les algorithmes FFT classiques n'ont aucun contrôle sur le calcul des
entrées et calculent même les cas de fréquence contenant zéro. Par conséquent,
le principal problème est que la numérisation de la totalité de la bande
consomme trop d'énergie et les techniques existantes de détection du spectre ne
sont pas suffisamment efficaces.
MÉTHODOLOGIE:
Analyser les techniques mathématiques et de
trouver le meilleur concept fondamental.
Simuler les algorithmes en C ainsi que la
technique la plus sophistiquée pour une analyse plus approfondie.
Étude de cas de la technique et évaluer son
efficacité pour le problème spécifique d’un taux d’utilisation de 1,56%.
Intégrer l'algorithme d'élagage le plus rapide
avec l’architecture FFT et voir l'amélioration.
Mettre en œuvre le programme développé en VHDL.
Mettre en œuvre l'algorithme d’élagage de FFT
développé et évaluer sa performance en termes de consommation d'énergie.
Comparer le noyau VHDL développé avec des
noyaux commerciaux existants, tels que Xilinx et Altera.
RÉSULTATS:
Le nouvel algorithme est étudié et testé en C. Cela va être mis en œuvre FPGA. La recherche est toujours en cours.
AKBARNIAI TEHRANI Mona |
DIPLÔME: Ph.D. |
TITRE:
Conception de systèmes de calibration et
traitement de signaux pour réseaux d’antennes radar météorologiques.
RÉSUMÉ:
Le but de ce projet est l'amélioration de la performance des réseaux
d’antennes utilisés dans les radars météorologiques. La performance des réseaux
d’antennes est grandement affectée par des erreurs telles que les changements
environnementaux et les imperfections de fabrication. Cette recherche vise à
mesurer, modéliser et compenser ces erreurs ainsi que l’amélioration de la performance
et de la résolution d’antennes en utilisant des procédés de traitement de
signaux.
PROBLÉMATIQUE:
Certaines sources d’imperfections dans les
réseaux d’antennes ne peuvent pas être complètement éliminées lors du processus
de conception des antennes. De plus, lors de l’utilisation d’antennes à
balayage de fréquences pour construire un radar à balayage, la «largeur» du
faisceau principal peut être plus large que désiré pour une application radar
typique. Il en résulte une résolution angulaire insuffisante. Par conséquent,
des algorithmes de traitement du signal pour la compensation d’erreur et
l’amélioration de la résolution angulaire doivent être utilisés.
MÉTHODOLOGIE:
Pour la première partie de ce projet, une revue de littérature sur les méthodes
de calibration est faite et ensuite certains des algorithmes qui sont les plus
souvent utilisés sont implémentés dans Matlab pour réaliser un modèle complet
d’un système réel. La calibration se fait par l’adaptation du diagramme de
rayonnement réel reçu à partir des émetteurs dans des positions prédéterminées
pour le faire correspondre le mieux possible au motif idéal attendu
(c'est-à-dire en l’absence d'imperfections). Cette partie du projet est
terminée.
Pour la deuxième partie du projet, après la
revue de la littérature sur les méthodes disponibles pour amélioration de la
résolution des antennes, une nouvelle méthode est présentée. Dans ce projet,
des antennes à balayage de fréquences sont utilisées. Certaines propriétés
spéciales, comme la relation non linéaire entre l’angle de pointage du radar et
la fréquence des signaux transmis, sont utilisées dans la méthode proposée.
Cette méthode est basée sur l’intégration des signaux d’écho dans l'analyse.
RÉSULTATS:
Les modèles étudiés ont été testés au cours de plusieurs expériences en
appliquant un modèle réaliste et aussi les données réelles acquises à partir
d’une antenne réseau. La performance des algorithmes proposés correspond bien
aux résultats attendus. La prochaine étape sera écriture des articles de
journaux pour des résultats obtenus et rédaction de la thèse finale.
ARFAOUI,
Nadia
DIPLÔME: M.Sc.A.
TITRE:
Correction
des artefacts de mouvement présents dans les signaux de spectroscopie en
infrarouge proche issus d’un prototype d’imagerie cérébrale portable.
RÉSUMÉ:
Le groupe de recherche Imaginc développe
un prototype d’imagerie cérébrale combinant deux technologies: la spectroscopie
infrarouge proche (NIRS) et l’électroencéphalographie (EEG).
Ce projet a pour but d’automatiser la détection
et la correction des artefacts de mouvement présents dans les signaux NIRS.
PROBLÉMATIQUE:
Si la portabilité du prototype Imaginc
est son plus grand atout, c’est aussi une source importante de bruit pour la
spectroscopie infrarouge proche. Lors des acquisitions en mouvement, nous
observons en effet un nombre considérable d’artefacts de mouvement. Dans ce
projet, des accéléromètres seront utilisés pour repérer et corriger ces
artefacts.
MÉTHODOLOGIE:
Ø Finaliser le prototype Imaginc
Ø Ajouter deux d’accéléromètres externes
Ø Acquérir des données sur patients.
Ø Analyser les données NIRS recueillies lors
d’acquisitions
Ø Créer un algorithme capable de détecter et
corriger automatiquement les artefacts de mouvement en utilisant les signaux
issus des accéléromètres
Ø Validation en simulation
§
Ajout d’une réponse
hémodynamique simulée à certains canaux bruités
§
Traitement des données
avec l’algorithme de correction
§
Comparaison des canaux
concernés avec la réponse simulée
Ø
Mise en place d’un
protocole de validation expérimentale
RÉSULTATS:
Le prototype Imaginc est entièrement fonctionnel et comprend un
accéléromètre interne et deux accéléromètres externes. Les acquisitions ont
débuté et l’algorithme de traitement est en cours de conception.
BANY HAMAD,
GhaithErreur ! Signet
non défini.
DIPLOME: Ph.D.
TITRE:
Modélisation multi niveau, analyse formelle et caractérisation de la
propagation des erreurs douces dans les systèmes numériques.
RÉSUMÉ:
Dans ce projet, nous présentons un cadre à niveaux multiples pour modéliser
et analyser la propagation d'erreurs douces en utilisant la simulation et les
méthodes formelles. La méthode de simulation sera utilisée au niveau transistor
pour analyser tous les scénarios possibles de la propagation des impulsions
d'erreurs douces. Nous analysons la propagation d'erreurs douces au niveau de
la porte et niveau transfert de registre en utilisant la méthode de
vérification formelle ainsi que les bibliothèques de caractérisation.
PROBLÉMATIQUE:
Les erreurs douces induites par les radiations sont devenues un problème
très difficile qui influe sur la fiabilité des systèmes microélectroniques
modernes. De nombreux travaux de recherche ont été menés pour analyser la
propagation d'erreurs douces à haut niveau d’abstraction. Cependant, les
techniques existantes ne sont pas exactes, car elles ne modélisent pas la
variation des caractéristiques des trains d'erreurs douces. Par conséquent, une
nouvelle méthode d’analyse de la propagation des erreurs douces et une nouvelle
méthode d’estimation du taux d'erreurs douces sont nécessaires.
MÉTHODOLOGIE:
La méthodologie proposée étudie l'impact de la configuration d'entrée, les
chemins de propagation, la polarité des impulsions, les chemins divergents et
les chemins de reconvergence sur la propagation d'erreurs douces au niveau
transistor. Par la suite, la méthodologie proposée analyse la propagation
d'erreurs douces au niveau porte en utilisant les méthodes de vérification
formelles et les bibliothèques de caractérisation au niveau transistor. Une
nouvelle façon d’abstraire les conditions de propagation d'erreurs douces au
niveau de la porte est proposée. Enfin, notre méthodologie proposée estime et
analyse la propagation des erreurs douces dans des conceptions numériques
complexes au niveau registre en utilisant les méthodes de vérification formelle
et les bibliothèques de caractérisation au niveau porte.
RÉSULTATS:
Nous avons terminé notre analyse de la propagation des erreurs douces au
niveau du transistor en utilisant HSPICE. Les résultats de cette analyse ont
été publiés dans la revue TNS et la conférence RADECS2013. Nous travaillons
actuellement à l'analyse de la propagation d'erreurs douces au niveau de la
porte à l'aide du MDG model checker, les résultats de cette analyse sont en
cours d'évaluation.
BEN CHEIKH, Taieb Lamine |
DIPLÔME: Ph.D. |
TITRE:
Approche multiprocesseur pour l’optimisation des applications biomédicales.
RÉSUMÉ:
L’imagerie biomédicale prend beaucoup d’essor dans le domaine du traitement
numérique d’images grâce à la numérisation et à la vidéo assistance. Dans cette
optique, plusieurs efforts ont été observés dans le développement d’algorithmes
poussés pour produire des résultats satisfaisants aux besoins des
médecins. Le problème de la majorité de ces algorithmes est qu’ils sont
restés au niveau théorique et leur implémentation n’a pas été encore définie
afin de satisfaire les contraintes de temps réel. Afin de concrétiser ces
efforts sur le plan pratique, nous cherchons à assurer une implémentation
adéquate de certains de ces algorithmes déjà développés en Matlab (langage
interprété) par le laboratoire de recherche LIV4D à l’École Polytechnique de
Montréal. L’application visée est un système à réalité augmentée pour la
chirurgie minimalement invasive.
PROBLÉMATIQUE:
Après l’étude de l’algorithme de
l’application écrite en MATLAB, nous avons remarqué qu’il présente en partie
des points communs avec les algorithmes de traitement d’images classiques en
termes de structures de données de grande taille avec des formes régulières:
matrice, tableau et traitement identique sur des parties de ces structures de
données. Ces points favorisent la parallélisation de l’application en question
en proposant, comme architecture d’implémentation une plate forme
multiprocesseur. En plus de ces points communs, cette application présente
certaines particularités telles que l’emploi intensif du contrôle et l’aspect
dynamique du traitement, ce qui complique davantage la tâche de la
parallélisation. Compte tenu de ces particularités, nous proposons une
architecture multiprocesseur hétérogène combinant plusieurs types de
processeurs (CPUs et GPUs).
MÉTHODOLOGIE:
Afin de faciliter la programmation
de cette architecture multiprocesseur hétérogène, notre objectif est de
proposer un environnement de programmation spécifique. Cet environnement doit
être efficace, flexible et complet. Pour se faire, nous avons suivi une
démarche basée sur un ensemble d'étapes: comme première étape, nous avons
réécrit le code en C (langage compilable) pour accélérer son exécution d’une
part et favoriser, d’autre part, son instrumentation et son implémentation vu
l’existence d’outils et de compilateurs adaptés pour le C. Ensuite, nous
avons profilé le code en détail et observé la dynamique des données durant
l’exécution. Ceci nous a donné l’idée de simplifier les structures de
données en réduisant leur taille pour ne garder que les parties de données
utiles pour le traitement.
RÉSULTATS:
Cette étape a permis d’améliorer le
temps d’exécution du code séquentiel et d’optimiser la taille mémoire des
données. Les premiers résultats ont été très encourageants et avaient
atteint, pour une première image avec 55 contours, une accélération de 212x par
rapport à une implémentation en MATLAB et pour une image de 177 contours, une
accélération de 505x. Malgré cette accélération considérable, nous n’avons pas
réussi à atteindre le temps réel avec une exécution séquentielle du programme,
d'où le besoin de la parallélisation. Comme deuxième étape, nous avons proposé
une version parallèle du programme optimisé et nous avons implémenté cette version
à l'aide du modèle de programmation parallèle OpenMP. L’expérimentation
s’était faite sur un processeur multicore à 4 cœurs. Cette version a atteint
une accélération de 2.74x pour une image de 55 contours et 3.08x pour une image
de 177 contours. Cette version reste à optimiser et, afin de tirer profit du
parallélisme présent dans l'application, nous visons dans la prochaine étape
d'implémenter le programme sur une architecture combinant des processeurs
graphiques avec CUDA et des multicore avec OpenMP.
BENDAOUDI, HAMZA
DIPLÔME: Ph.D.
TITRE:
Inspection
des images de fond d’œil pour la détection de maladies
RÉSUMÉ:
Ce projet porte sur l’accélération
matérielle de traitement d’images. Il vise les algorithmes de détection
automatique des maladies de l’œil, comme les prétraitements (filtrage) et la
segmentation des images de la rétine (détection des vaisseaux sanguins, macula,
disque optique, etc.). L’objectif est de proposer
des architectures adaptées pour l’accélération de l’exécution de ses
algorithmes ainsi qu’une méthode de conception flexible et rapide pour la
conception des architectures proposées. La mise en œuvre d’un système complet
de détection de maladies de l’œil (rétinopathie diabétique) en matériel est
envisagée.
PROBLÉMATIQUE:
Des millions de personnes autour du
monde souffrent du diabète, dont 1.8 au Canada et 376 000 au Québec en
2003-2004. La complication oculaire la plus grave de cette maladie est la
rétinopathie diabétique, l’une des causes principales de la cécité chez les
adultes. Les patients atteints du diabète doivent donc effectuer un dépistage
fréquent auprès d’un ophtalmologue. La détection automatique des maladies de
l’œil et de la rétinopathie diabétique est une solution avec un grand potentiel
pour faire face au nombre insuffisant de médecins ophtalmologues par rapport au
nombre de patients et aux analyses fréquentes.
Plusieurs algorithmes de détection
de la rétinopathie diabétiques ont été proposés dans la littérature. La
majorité de ces algorithmes sont implémentés en logiciel sur des processeurs à
usage général. Avec une telle solution, informer les patients des résultats de
diagnostic est difficile sur site lors de la visite à cause du temps de
traitement nécessaire. Ainsi, les algorithmes proposés traitent des images de
petite taille, alors que les rétinographes récents permettent d’acquérir des
images de haute résolution plus riches en informations, ce qui permet
d’augmenter la précision de la détection de la maladie. Avec des images de
haute résolution, une accélération matérielle est nécessaire pour répondre aux
besoins en temps de traitement et en rapidité de détection. En plus, les
algorithmes sont très sensibles aux changements de paramètres. Une méthode de
conception rapide et flexible est nécessaire pour permettre l’adaptation des
paramètres et éviter le recodage des descriptions matérielles.
MÉTHODOLOGIE:
Notre méthodologie repose sur la réalisation d’une investigation des
algorithmes de détection de la rétinopathie diabétique existants. Une
classification de ces algorithmes selon la complexité, les opérateurs de
traitement d’image employés et la qualité des résultats de traitement est
nécessaire pour identifier les tâches critiques. La phase suivante est la
proposition d’architectures adaptées pour l’accélération de l’exécution de
l’algorithme avec une méthode de conception flexible et rapide basée sur la
génération du code VHDL automatique à partir des paramètres de l’algorithme. La
phase finale est la validation expérimentale via une implémentation sur FPGA.
RÉSULTATS:
Une étape commune des algorithmes de détection automatique de la
rétinopathie diabétique est la détection des vaisseaux sanguins de la rétine.
Le filtre adapté constitue une des approches les plus populaires. Pour cet
algorithme, une architecture matérielle évolutive a été proposée et implémentée
sur FPGA. Un outil de génération automatique de la description matérielle en
VHDL a été développé. Cette implémentation vise le traitement des images de
haute résolution, et nous atteignons une accélération de 10× par rapport à
l’état de l’art. Un article pour une conférence internationale (DASIP2014) a
été soumis.
BERRIMA,
Safa
DIPLÔME: M.Sc.A.
TITRE:
Diagnostic des cellules et des liens
intercellulaires dans la technologie Wafer IC
RÉSUMÉ:
Les circuits à l’échelle de la tranche ont
composés de plusieurs cellules interconnectées par des liens intercellulaires
et sont configurés par des chaines de balayage. Il suffit d’avoir un seul
élément défectueux dans la chaine pour la rendre complètement inutilisable, d’où
l’idée de créer des chaines capables d’éviter de passer par les éléments
défectueux du circuit. Ceci nécessite un diagnostic préalable. Le but de ce
projet est de diagnostiquer un circuit à l’échelle de la tranche. Diagnostiquer
veut dire caractériser chaque cellule et chaque lien intercellulaire. Par
caractériser on entend savoir si l’élément est fonctionnel ou non. La deuxième
partie du projet consiste à créer un algorithme qui permet de localiser les
éléments non fonctionnels s’il y lieu.
PROBLÉMATIQUE :
Le projet DreamwaferTM vise à
élaborer une plateforme de prototypage rapide des systèmes électroniques. Cette
plateforme utilise une circuiterie de configuration JTAG basée sur un circuit à
l’échelle de la tranche nommée le Wafer IC. Avant toute utilisation de la
plateforme, un diagnostic du Wafer IC doit être fait pour valider qu’il n’a pas
eu de changement de l’état des éléments depuis la dernière mise hors tension
pour éviter d’utiliser les éléments défectueux.
MÉTHODOLOGIE :
Le projet se divise en deux parties:
Ø Caractérisation des liens: envoyer une série de chemins sous forme de
rectangles (Le choix de la forme se base sur une étude théorique). Si le chemin
est fonctionnel alors tous les liens et les cellules en faisant partie sont
caractérisés comme fonctionnels. Dans le cas contraire, tous les liens et les
cellules qui n'ont pas été préalablement caractérisés comme fonctionnels sont
mis temporairement dans l'état «Testé».
Ø Localisation de la défectuosité: un
algorithme de dichotomie est appliqué sur chaque chemin non fonctionnel pour
localiser l’élément défectueux.
RÉSULTATS :
Ø Soixante-six chemins ont été créés
pour assurer une couverture de 100% des liens testables d’un réticule.
Ø Injection de défectuosités selon la
distribution de Poisson et la distribution binomiale négative.
Ø L’algorithme de dichotomie localise
29 défectuosités sur 31 défectuosités injectées, soit 93% des défectuosités
injectées sont localisées. Des améliorations restent à faire pour essayer
d’atteindre 100%.
BLOUIN,
Frédéric,
DIPLÔME: M.Sc.A
TITRE:
Conception
d’un système de vision par ordinateur pour la détection automatique
d’inventaire médical.
RÉSUMÉ:
Ce projet de vision artificielle vise à faire
le suivi de l'inventaire médical utilisé par le personnel infirmier. À l'aide
d'une caméra placée au plafond, le système tente de reconnaitre les
compartiments de différents tiroirs et d'en évaluer le contenu.
PROBLÉMATIQUE:
La gestion d’inventaire dans les hôpitaux
constitue un problème de logistique important. Plusieurs systèmes de gestion,
déjà en place aujourd’hui, tentent de faire un suivi des différents items
utilisés par le personnel infirmier. Cependant, ces solutions comportent
certains problèmes et ne sont pas utilisées adéquatement par le personnel. Par
exemple, une solution élaborée par l’entreprise Logi-D fait l’usage d'un
système de puces RFID afin d’identifier chaque item à commander. Le problème de
ce système est que les puces ne sont pas toujours déplacées correctement par le
personnel et des erreurs de manipulation peuvent facilement survenir, surtout
dans les départements de soins d’urgence.
Le but du projet consiste donc à améliorer ce
système de gestion d’inventaire en le remplaçant par un système de surveillance
d’inventaire avec caméra. Un tel système de vision artificielle permettrait de
repérer automatiquement les items manquants à l’inventaire.
La détection automatique de l’inventaire par un
système informatique nécessite de créer un logiciel capable de faire cette
détection. Plusieurs algorithmes sont possibles pour faire l’analyse d’images
vidéo, mais une identification des algorithmes les plus appropriés à la
résolution de ce problème est nécessaire.
MÉTHODOLOGIE:
Une méthode systématique est suivie. D’abord
une revue de la littérature des différents algorithmes de vision artificielle
est faite afin de faire une sélection des algorithmes les plus appropriés.
Ensuite, une comparaison de ces algorithmes est effectuée sur une large banque
de vidéos afin d'en retenir les algorithmes les plus performants.
Pour arriver à faire une bonne détection
visuelle de l’inventaire, un bon traitement vidéo doit être effectué. Le
problème principal est donc de traiter correctement les images reçues par la
caméra afin de pouvoir établir correctement l’état de l’inventaire.
Différents algorithmes de traitement d’images sont possibles. Par
exemple, la détection des bordures de tiroirs et de casiers peut se faire à
l’aide d’une transformée de Hough. La détection du contenu du tiroir peut aussi
se faire de plusieurs façons: par une technique de soustraction d’arrière-plan,
par une technique de segmentation en régions, par une analyse de l’histogramme
des intensités ou encore de l’histogramme de gradient orienté (HOG). Une
analyse de ces différentes méthodes permettrait d’obtenir un taux de réussite
le plus élevé possible.
RÉSULTATS:
Le projet a d’abord permis à l’entreprise
Logi-D de faire une implantation du système à l’hôpital du Sacré-Cœur de
Montréal en tant que projet pilote. Cinq caméras ont pu être installées ainsi
que tout le matériel nécessaire (marqueurs de couleur, fonds de tiroirs
colorés, supports à caméra). Ensuite, des données ont pu être recueillies et
comparées avec les données de l’ancien système déjà en place. Les cas d’erreurs
de notre système ont ainsi pu être catégorisés et classés selon leur
occurrence. Ceux-ci incluent les problèmes d’occlusion ou encore les
manipulations trop rapides de la part du personnel.
CHAMPAGNE,
Pierre-Olivier
DIPLÔME: M.Sc.A.
TITRE:
Comportement de nanoparticules super
paramagnétiques en regard de l’activité électro-magnétique cérébrale
RÉSUMÉ:
L’objectif du projet est l’étude du
comportement de nanoparticules superparamagnétiques face à l’activité cérébrale
électro-magnétique. Une réactivité des nanoparticules à l’activité électrique
cérébrale se traduisant par une agrégation de ces dernières aux zones plus
actives pourrait permettre une étude précise de l’activité électrique
cérébrale. Cette nouvelle voie pour étudier le comportement électrique cérébral
pourrait servir au traitement de maladies comme l’épilepsie.
PROBLÉMATIQUE:
L’épilepsie constitue un désordre neurologique
fréquent aux impacts personnels et sociétaires non négligeables. Plusieurs cas
d’épilepsie sont résistants aux traitements pharmacologiques usuels, on parle
alors d’épilepsie réfractaire. Dans de tels cas, une chirurgie visant l’exérèse
précise de la zone responsable de l’activité cérébrale anormale (foyer) peut
être offerte. Par contre, les modalités présentement utilisées ne permettent
pas toujours une détection suffisamment précise du foyer épileptique, amenant
un échec de la chirurgie. Dans ce contexte, de nouvelles méthodes de détection
du foyer épileptique sont nécessaires.
Les nanoparticules superparamagnétiques
pourraient constituer une méthode prometteuse dans l’investigation de
l’activité électrique cérébrale pour des conditions comme l’épilepsie. En
effet, elles réagissent d’une part aux champs magnétiques (dont ceux créés par
des courants électriques) et sont, d’autre part, visibles par la méthode
d’imagerie qu’est l’IRM.
Notre hypothèse est que la présence d’une
activité électrique cérébrale de plus en plus importante influencera le
comportement de nanoparticules superparamagnétiques de passage en favorisant
leur agrégation et leur persistance dans cette zone.
MÉTHODOLOGIE:
Un modèle de tranches de cerveau vivantes chez
le rat est utilisé. Il est possible d’augmenter localement ou en totalité
l’activité électrique des tranches. L’expérimentation est par la suite conduite
selon les étapes suivantes :
Ø Étude du comportement des nanoparticules selon
l’activité électrique cérébrale;
Ø Étude du comportement biologique des tranches;
Ø Études électromagnétiques des tranches.
RÉSULTATS:
Les résultats sont jusqu’à présent
satisfaisants, avec une augmentation qualitative des agrégats de nanoparticules
en présence d’une activité biologique (et électrique) croissante. La
reproductibilité de ces résultats et les analyses subséquentes sur les tranches
permettront de mieux comprendre le phénomène observé.
CHARASSE,
Sylvain
DIPLÔME: M.Sc.A.
TITRE:
Test et débogage des circuits intégrés sur
WaferBoardTM avec le standard IEEE 1500 embarqué sur FPGA.
RÉSUMÉ:
WaferboardTM est un outil de
prototypage pour le développement de systèmes électroniques. Le sujet de
recherche s’intéresse à comment permettre le test et le débogage de systèmes
électroniques en utilisant le standard IEEE 1500 embarqué dans un FPGA autonome
sur le WaferBaordTM.
PROBLÉMATIQUE:
Le WaferBoardTM est voué au
prototypage rapide de systèmes. Cependant, il n’existe pas encoure d’outils qui
permettent à un utilisateur d’obtenir une visibilité sur le design en cours de
test. De plus, cette recherche vise à permettre la génération de signaux à des
points stratégiques du design. Une autre problématique réside dans le fait que
le test et débogage devraient être compatible avec n’importe quel type de
design. C’est pourquoi nous nous dirigeons plutôt vers l’implémentation d’une
norme, l’IEEE 1500.
MÉTHODOLOGIE:
Ø Identifier les besoins spécifiques
du test et du débogage pour les concepteurs des systèmes électroniques;
Ø Analyser le standard IEEE 1500 pour
savoir comment il doit être utilisé pour répondre aux besoins spécifiques
identifiés plus haut;
Ø Développer et valider un prototype
de FPGA intégrant le standard IEEE 1500;
Ø Étudier l’interface nécessaire à
l’utilisateur pour effectuer les tests et le débogage sur le WaferBoardTM.
RÉSULTATS:
Pour le moment, une preuve de concept sur carte
de développement FPGA a été réalisée. Le système permet de donner une
visibilité sur un design à travers les entrées sorties d’un FPGA. L’utilisation
d’une mémoire externe rapide (DDR2) contribue aussi à augmenter la visibilité.
Les prochains résultats attendus concerneront
la configurabilité assistée d’un tel système, la génération de signaux et une
interface utilisateur.
DAIGNEAULT, Marc-André |
DIPLÔME: Ph.D. |
TITRE:
Synthèse et description de circuits numériques
au niveau des transferts synchronisés par les données.
RÉSUMÉ:
Nos travaux de recherche portent sur les outils
de conception assistée par ordinateur de circuit numériques. Au rythme de la
conjecture de Moore, le nombre de transistors pouvant être intégrés sur une
même surface de silicium n'a cessé de doubler tous les deux pendant plus de 4
décennies, si bien que les circuits intégrés modernes sont souvent de
véritables systèmes sur puce, pouvant intégrer plusieurs noyaux de processeurs,
des mémoires, accélérateurs de calculs et autres circuits dédiés. Néanmoins, ce
rythme de croissance effréné à également pour effet de soumettre les outils de
conception de circuits numériques à une pression inouïe en termes de besoins d'innovation.
Afin de pallier aux limitations inhérentes à la synthèse et description de
circuits au niveau des transferts entre registres (RTL), nous œuvrons au
développement d'un langage de description offrant un niveau d'abstraction
intermédiaire entre ceux offerts par les langages de description de circuits
usuels (VHDL/Verilog) et les langages de description de logiciels (C/C++). Ce
langage est basé sur le modèle CSP (Communicating Sequential Processes)
et intègre également des éléments propres au modèle SDL (Specification and
Description Languages). Au niveau d'abstraction proposée, les transferts
correspondent à des connexions entre des producteurs et des consommateurs de
données, adhérant à une interface et à un protocole de synchronisation
prédéfinis de type flux de données (Streaming Interface). Afin de
permettre la synthèse de circuits numériques décrits avec ce langage, nous
œuvrons également au développement d'un compilateur permettant la
transformation automatique des descriptions correspondantes en des descriptions
à bas-niveau (RTL) pouvant ensuite être synthétisées avec des outils de
conception commerciaux existants.
PROBLÉMATIQUE:
L'interconnexion de producteurs et de
consommateurs de données adhérant à des interfaces à flux de données supportant
la contrepression (pour indiquer que le consommateur ne peut pas recevoir de
données) dans différentes topologies peut donner lieu à des relations cycliques
en termes des signaux de synchronisation de ces interfaces. De telles relations
cycliques sont problématiques, car elles se traduisent par des boucles
combinatoires au niveau du circuit. De telles boucles combinatoires peuvent
alors manifester un comportement séquentiel ou non-déterministe, allant à
l'encontre de l'intention du concepteur. Des relations cycliques peuvent
également découler de l'utilisation de règles pour contraindre la réalisation
des transferts de données sur des ensembles de connexions. Afin de produire des
circuits corrects par construction, le compilateur doit réaliser l'analyse de
ces relations cycliques afin d'être en mesure de les transformer en un circuit
de contrôle acyclique assurant un comportement déterministe en accord avec
l'intention du concepteur.
MÉTHODOLOGIE:
Afin d'atteindre les objectifs de ce projet de
recherche, un compilateur décrit en langage Java est en cours de développement.
Ce compilateur à pour objectif la traduction automatique de descriptions de
circuits réalisées avec notre langage de niveau intermédiaire en descriptions
bas-niveau pouvant être synthétisées avec des outils commerciaux existants.
L'évaluation de l'approche de conception automatisée proposée sera faite par
son application à la conception de circuits numériques d'intérêt à l'état de
l'art.
RÉSULTATS:
La méthodologie de niveau intermédiaire
proposée pour la description et la synthèse de circuits numériques à été
appliquée à la réalisation de différentes applications, tels
le tri de données, l’accumulation de nombres à virgule flottante, le
produit matriciel et la résolution de systèmes d’équations linéaires. Les
résultats obtenus indiquent que la méthodologie proposée permet d’obtenir des
circuits fonctionnels offrant des performances avoisinant celles obtenues avec
une méthodologie RTL, mais avec des temps de conception et de vérification
significativement moindres.
DARVISHI, Mostafa DIPLÔME: Ph.D.
TITRE:
Vérification de délai de propagation dans les
FPGAs causé par les évènements perturbateurs singuliers (SEU) induits par les
rayons cosmiques.
RÉSUMÉ:
Ce projet fait partie d'un effort de recherche
de l'équipe AVIO403 travaillant sur l'effet des rayons cosmiques sur
l'électronique de bord des avions et satellites et le développement de méthodes
d'atténuation pour réduire les temps d'arrêt des systèmes de bord.
PROBLÉMATIQUE :
Comme le trafic aérien augmente, de nouveaux
corridors de vol doivent être définis en altitude, ce qui expose l'appareil à
plus de rayonnement dû aux rayons cosmiques. Au niveau de la terre, la majeure
partie de ce rayonnement est absorbé par l'atmosphère. En conséquence,
l'électronique embarquée de contrôle est plus exposée à un rayonnement ce qui
augmente le risque d'apparition de défaut électronique menaçant la sécurité des
passagers.
L'objectif principal de ce projet est de
caractériser le retard de propagation induit par les rayons cosmiques dans les
circuits FPGA et d'investiguer sur les stratégies de mitigation qui permettront
la conception robuste d’architecture de circuits résistants aux pannes causées
par rayonnement. L'effet cumulatif des SEU sera également étudié dans le
contexte des pannes causées par les délais.
MÉTHODOLOGIE:
Dans ce projet, la première étape consiste à
modéliser les chemins critiques étape par étape et le retard de propagation
correspondant sera simulé. La proposition de certaines techniques d'évitement
pour réduire le temps de propagation dans les chemins critiques des systèmes
FPGA constitue l'étape suivante.
RÉSULTATS:
Les résultats de simulation obtenus à partir de
notre modèle bas-niveau ont été comparés avec ceux mesurés au laboratoire
TRIUMF. Une bonne corrélation a été obtenue et a permis de produire un article
pour la prochaine conférence NSREC. Cet article vient d’être accepté.
DEHBOZORGI,
Mahya
DIPLÔME : M.Sc.A.
TITRE:
Développement d'un système de
logiciels précliniques robustes pour l'électroencéphalographie en temps réel
(EEG) et le proche infrarouge surveillance spectroscopie (NIRS)
RÉSUMÉ:
Le système portable NIRS / EEG
d'imagerie cérébrale sur mesure qui est développé par l'équipe Imaginc est basé
sur les techniques d'électroencéphalographie et de la spectroscopie dans le
proche infrarouge. Nous sommes en mesure de surveiller l'activité du cerveau de
patients épileptiques en vue de détecter la zone épileptogène et fournir un
traitement plus précis. Ce système est unique en son genre en raison de sa
double fonctionnalité (EEG et SPIR), de sa petite taille et sa portabilité.
Nous avons développé un logiciel temps réel personnalisé pour soutenir le
système de matériel.
PROBLÉMATIQUE:
Nous développons actuellement
l'interface utilisateur qui sera finalement utilisée par les neurologues dans
le suivi des patients. L'avantage de notre programme est que nous pouvons
intégrer les besoins spécifiques des médecins dans notre système, ce qui n’est
pas possible avec un logiciel commercial. Il fonctionnera également en temps
réel, ce qui signifie que les résultats sont disponibles immédiatement ce qui
permettra un diagnostic plus précis. Toutes les données d'acquisition sont
enregistrées et peuvent être consultées pour une évaluation ultérieure.
MÉTHODOLOGIE:
Notre programme actuel est développé
en LabVIEW, un environnement de programmation graphique développé par National
Instruments qui nous permet de concevoir et de déployer rapidement notre
système. Le système matériel acquiert des données et transmet ces données par
communications sans fil à l'ordinateur. Les données sont ensuite traitées et
les différents paramètres sont affichés. Un traitement supplémentaire est
effectué sur un autre ordinateur en utilisant Matlab, qui fournit une meilleure
vue d'ensemble des données acquises.
RÉSULTATS:
Le système est capable d'enregistrer
des données pendant une période continue d’au moins 24 heures, sans aucune
interruption ou une perte de données. L’interface utilisateur est facile à
utiliser et permet à l’utilisateur de modifier différents paramètres et
personnaliser les variables.
FOURMIGUE, Alain |
DIPLÔME: Ph.D. |
TITRE:
Modélisation au niveau système des
architectures tridimensionnelles (3-D) de systèmes multiprocesseurs sur puce
(MPSoC).
RÉSUMÉ:
Ce doctorat porte sur les
architectures de circuits intégrés en trois dimensions (3D) pour systèmes
multiprocesseurs sur puce (MPSoC). L’objectif de ce doctorat est de mettre en
place les méthodologies appropriées pour modéliser et exploiter pleinement les
possibilités des technologies d’intégration 3D, pour la conception de systèmes
multiprocesseurs sur puce (MPSoC).
PROBLÉMATIQUE:
Alors que la miniaturisation des
transistors ralentit, les circuits intégrés tridimensionnels (3D) offrent une
alternative technologique pour continuer l’intégration de fonctionnalités et
développer des circuits toujours plus performants. Les progrès technologiques
réalisés ces dernières années en matière d’intégration 3D ont permis la
réalisation des premiers prototypes de circuits intégrés 3D. Cependant, le
manque d’outils et de méthodologies appropriés pour aider à la conception de
ces nouvelles architectures 3D est important, et peut, à terme, compromettre
l’utilisation des technologies 3D. Sans outils ni méthodologies de conception
appropriés, les ingénieurs sont contraints de continuer à développer des
circuits intégrés 2D conventionnels. Ce travail répond à un besoin de
modélisation des architectures de circuits intégrés 3D et se propose de
développer des méthodologies permettant d’en exploiter les possibilités pour la
conception de MPSoC.
MÉTHODOLOGIE:
Dans un premier temps, ce doctorat
s’intéressera à la modélisation des phénomènes de dissipation thermique dans
les circuits intégrés 3D. En effet, les circuits intégrés 3D sont constitués
d’un empilement de multiples couches de silicium et sont exposés à des
problèmes de dissipation de chaleur si l’architecture est mal conçue.
L’objectif à court terme de ce travail est de mettre en place une méthodologie
pour développer des modèles thermiques pouvant être couplés à des
environnements de simulation dynamique de MPSoC. Le défi est de parvenir à
développer des modèles suffisamment performants, précis et nécessitants des
efforts de modélisation raisonnables.
Dans un deuxième temps, ce doctorat
se concentrera sur les méthodologies d’exploration architecturale pour systèmes
MPSoC 3D. L’ajout d’une troisième dimension dans les circuits intégrés a
entrainé l’explosion du nombre d’architectures possibles. L’objectif est de
mettre en place une méthodologie permettant d’identifier rapidement
l’architecture la plus appropriée pour une classe d’applications données, car
les plateformes MPSoC ciblent toujours une classe d’applications bien précise
(multimédia, communication, calcul, etc.). Pour évaluer les différentes
architectures possibles, une plate-forme virtuelle modélisant un MPSoC 3D
complet et permettant de simuler l’exécution d’applications sur ce MPSoC 3D
sera réalisée.
RÉSULTATS:
Un article de conférence portant sur
la modélisation de température dans les circuits intégrés 3D a été soumis. Cet
article est toujours en cours d’évaluation.
GHANE-MOTLAGH, Bahareh
DIPLÔME: M.Sc.A.
TITRE:
Conception et réalisation d’une matrice de
microélectrodes à haute densité pour des applications d’interface
cerveau-machine.
RÉSUMÉ:
Dans ce projet, une technique à base de tranche
de silicium a été utilisée pour construire la matrice de microélectrodes. Ce
type de matrices d’électrodes est fabriqué selon une méthode de micro-usinage
et implanté pour l’observation et la stimulation intracorticale et jouant le
rôle d’une interface cerveau-machine. Pour augmenter la charge électrique lors
de la stimulation, l’impédance doit être abaissée. De nouveaux matériaux ont
des surfaces intrinsèquement grandes et une conductance élevée. Par ailleurs,
les électrodes restent biocompatibles. À cet effet, prochainement, les
électrodes seront améliorées par l’utilisation de ces nouveaux matériaux. Une
approche en trois dimensions a été utilisée pour réaliser un microsystème
d’enregistrement neuronal plus compact intégrant des matrices d’électrodes et
des circuits intégrés servant à la sélection des sites, l’amplification et les
puces de traitement de signal.
PROBLÉMATIQUE:
Le domaine des interfaces implantables
cerveau-machine est une activité de recherche émergente. Des progrès
remarquables sont effectués au niveau bioélectronique, mais les contacts
électrode-tissus (CET) obtenus en utilisant des réseaux de microélectrodes
demeurent l’un des obstacles majeurs. Ces contacts génèrent des problèmes de
biocompatibilité avec ces interfaces cerveau-machine en raison de la réponse
biologique à l’implantation permanente et également à cause des propriétés
électroniques des réseaux de microélectrodes. Notre objectif, dans ce projet,
consiste en l’élaboration de réseaux de microélectrodes dont la sélectivité, la
biocompatibilité à long terme, la stabilité chimique, la qualité
d’enregistrement, la sensibilité et d’autres caractéristiques électriques sont
les principaux critères. Différents types de réseaux de microélectrodes en
silicium, fabriqués grâce à des techniques de couches minces, n’ont pas le
potentiel de haute densité, de faible impédance et de faible consommation
d’énergie nécessaire pour les CET, requis par les stimulateurs implantables. En
se concentrant sur ces aspects, des réseaux de multi-électrodes à haute densité
et faible impédance sont conçus et fabriqués.
MÉTHODOLOGIE:
La méthode de couches minces associée aux
étapes électrochimiques sera utilisée pour fabriquer des matrices de
multi-électrodes. Une gravure chimique est effectuée pour lisser les surfaces.
Dans l’étape suivante, les électrodes sont recouvertes de nouveaux matériaux
par dépôt électrochimique. La caractérisation de l’échantillon montrera la
faible impédance des électrodes et un transfert de charges élevé. Par ailleurs,
les électrodes restent chimiquement inertes et biocompatibles.
RÉSULTATS:
Les matrices de microélectrodes à haute densité
ont été fabriquées. Par conséquent, nous avons obtenu des matrices d’électrodes
avec des hauteurs variables de 1.45, 1.55 et 1.65 mm. L’épaisseur des
électrodes éait de 200µm à la pointe. Pour encapsuler et améliorer la
biocompatibilité des électrodes, la face avant des électrodes a été recouverte
de parylène-C. Dans l’étape suivante, une couche de molybdène a été déposée à
la pointe des électrodes pour faciliter le transfert de charge.
GHOLAM
ZADEH
Bahareh
DIPLÔME: M.Sc.A.
TITRE:
Conception et fabrication d’un réseau de
biocapteurs pour la mesure de la force cellulaire.
RÉSUMÉ:
Dans ce projet, différents types de capteurs
MEMS ont été développés pour mesurer l’adhérence focale des cellules. Le
système est composé de capteurs MEMS et une partie électrique pour surveiller
la variation de signal de sortie (en raison d’adhérences focales). Les capteurs
MEMS ont été conçus avec le logiciel Comsol Multiphysics et nous allons
démontrer et discuter de la fabrication et des résultats expérimentaux.
PROBLÉMATIQUE:
Analyser les interactions entre les cellules et
la matrice extracellulaire est une étape importante dans différentes études
biologiques comme l’ingénierie tissulaire ou la caractérisation d’une maladie
comme le cancer et la leucémie. Aussi, cela fournit des renseignements
essentiels sur la motilité cellulaire, la migration cellulaire et la survie des
cellules. Au cours de l’interaction entre les cellules et la matrice
extracellulaire, les obligations protéines spéciales seront formées qui sont
connues comme les adhésions focales. Les cellules seront physiquement
connectées à la matrice extracellulaire à travers ces obligations. Plusieurs
études ont été réalisées pour comprendre la formation de l’adhésion focale et
l’effet de son altération sur le comportement des cellules. Comme objectif à
long terme, nous voulons développer un système innovant pour l’évaluation
du comportement mécanique des protéines d’adhésion focale.
MÉTHODOLOGIE:
Pour analyser le comportement des cellules dans
des situations différentes en contrôlant leur adhésion focale, un réseau de
cantilevers est conçu et fabriqué en utilisant des technologies standard
POLYMUMP et METALMUMPS. La force d’adhérence peut être analysée sur la base de
la mécanique, ainsi que la variation électrique de l’électrode fonctionnalisée.
Ces forces déplacent le capteur optique, capacitif ou piézo-électrique intégré
avec les cantilevers et en comparant les résultats de sortie de ces capteurs,
il sera possible de démontrer les avantages et les inconvénients des différentes
méthodes de mesure de force d’adhérence.
RÉSULTATS:
Après avoir fait des simulations avec le
logiciel Comsol multi physiques et de faire une analyse théorique pour trouver
la dimension optimale des cantilevers, le lay-out a été conçu et soumis à MUMPS
fournisseur de la technologie NEMSCAP par CMC Microsystèmes. Afin de tester la
structure de l’installation, la lecture microélectronique est en cours
d’élaboration pour chacun des capteurs. L’application d’une force sur le dessus
des capteurs entraine la déflexion de cantilevers et enfin en fonction du type
de capteur (optique, piézo-résistif, ou capacitif) la déviation est mesurée.
Différents types d’expérience seront faits afin d’assurer la fonctionnalité du
système.
GUILLEMOT, Mikaël |
DIPLÔME: M.Sc.A |
TITRE:
Conception d’un logiciel de contrôle pour le
système de prototypage DreamWafer.
RÉSUMÉ:
Le groupe de recherche en microélectronique de
l’École Polytechnique de Montréal participe à un projet de recherche
d’envergure. Répondant au nom de DreamWafer, il est soutenu par un partenaire
industriel : Gestion TechnoCap Inc. Ce projet consiste en un nouveau
système de prototypage rapide de circuits numériques à l’échelle de la tranche :
le WaferBoard. L’objectif à terme est de permettre le test et la validation des
circuits électroniques au niveau système en un temps et des couts réduits en
concevant une plateforme reconfigurable. En résumé, le WaferBoard peut être
assimilé à un circuit imprimé (Printer Circuit Board) reconfigurable. Il doit
permettre le prototypage de circuit à composants discrets en déposant
simplement ces composants sur sa surface.
L’objectif général de ma recherche est de
concevoir le logiciel nécessaire au support de la plateforme WaferBoard. À
savoir l’élaboration d’une architecture générale favorisant l’intégration des
ressources techniques existantes, la conception d’un modèle évolutif
simplifiant les accès au matériel et la réalisation d’un système d’affichage
adapté à la complexité d’une telle plateforme. Cela dans un environnement
technique bipolaire (électronique et logiciel) connaissant un renouvèlement
important des personnes intervenant sur le projet.
PROBLÉMATIQUE:
Le logiciel de contrôle d’une plateforme
électronique tel que le WaferBoard doit répondre à des contraintes de
performance et de flexibilité, tout en intégrant les résultats de multiples
recherches. L’architecture mise en place doit de plus être en mesure de
supporter des échanges d’informations importants (plusieurs millions d’objets à
traiter).
MÉTHODOLOGIE:
Ø
Priorisation des
contraintes;
Ø
Sélection d’un modèle
équilibré entre performance et adaptabilité;
Ø
Intégration des
contraintes spécifiques du projet au modèle;
Ø
Supervision technique
du développement;
Ø
Test et validation du
résultat.
RÉSULTATS:
Logiciel fonctionnel basé sur l’architecture
proposée (certaines fonctionnalités basées sur des travaux de recherche en
cours ne sont pas assurées). Le logiciel actuel représente approximativement
150 000 lignes de code.
HACHED, Sami
DIPLÔME: Ph.D.
TITRE:
Sphincter artificiel commandé et alimenté en
énergie sans fil.
RÉSUMÉ:
Mon sujet de thèse consiste en la conception et
la réalisation d’un sphincter artificiel commandé et alimenté en énergie sans
fil. Le système conçu permettra de préserver la qualité de vie et les organes
des patients et d’étendre les capacités de sphincter classiques employé depuis
plus de 30 ans.
PROBLÉMATIQUE:
Les sphincters artificiels urinaires classiques
sont actionnés mécaniquement et appliquent une pression constante sur l’urètre
du patient. Leur utilisation nécessite une certaine dextérité et s’avère
compliquée pour les personnes à faible mobilité (personnes âgées, obèses, ayant
subi un AVC, Parkinson, etc.). La pression constante exercée sur l’urètre peut
causer l’atrophie urétrale quand elle est élevée et ne garantit pas la
continence quand elle est faible. Notre projet vise à développer un nouveau
sphincter urinaire artificiel.
MÉTHODOLOGIE:
La résolution des problèmes a été faite en
modifiant le sphincter standard avec l’ajout du pompage actif et d’une
électronique embarquée communicante. Cela en vue d’offrir au patient de
nouvelles fonctionnalités comme le contrôle à distance et la variation
dynamique de la pression exercée sur l’urètre en vue de réduire le nombre de
chirurgies de révision et faciliter l’utilisation et la pose de l’implant.
RÉSULTATS:
Jusqu’à présent nous avons conçu deux
prototypes. Le premier est contrôlable à distance. Le deuxième permet d’adapter
la pression selon la morphologie de la vessie. Le deuxième prototype a été
testé Ex-Vivo. La gestion
énergétique du SUA et l’impact du circuit hydraulique proposé sur l’évolution
de la pression sur l’urètre a été testé avec succès. Au cours des
expérimentations, l’algorithme adaptatif de génération de pression que nous
avons mise en œuvre s’est avéré efficace. Sa précision est de l’ordre de ± 2
cmH2O. La VLPP enregistrée est très proche de la pression de la
manchette. Cela prouve que l’implant respecte effectivement la consigne de
pression. Tout le long des tests, le SUA était facilement contrôlable. La
connexion a été établie en quelques secondes. Le contrôle de l’ouverture de
l’urètre se fait par l’appui sur un simple bouton. La modification de la
consigne de pression peut être faite facilement et à tout moment.
HAMIE,
Ali
DIPLÔME: M.Sc.A.
TITRE:
Prototype d’une micro pompe implantable dédiée
à l’injection des médicaments contre l’épilepsie.
RÉSUMÉ:
L’objectif de ce projet est de proposer et
valider un dispositif hybride regroupant une micro pompe implantable sur la
surface corticale et comprenant une unité de contrôle intégrée sur puce. Ce
système servira à relâcher une quantité minime de médicaments dès qu’une crise
sera détectée par une autre interface dédiée à ce rôle.
PROBLÉMATIQUE:
L’épilepsie est une dysfonction neurologique
chronique qui se caractérise par une tendance à des crises récurrentes. De
nombreux patients souffrant d’épilepsie restent des candidats non-éligibles à
une chirurgie impliquant une résection du tissu épileptogène pour les aider à
guérir. Les traitements alternatifs, tels que la stimulation cérébrale et
l’injection des médicaments, peuvent améliorer la situation des patients en tentant
d’arrêter une crise épileptique dès son apparition. De nombreuses études sont
réalisées pour fournir un traitement efficace aux patients épileptiques, mais
les solutions proposées demeurent peu efficaces.
MÉTHODOLOGIE:
Pour réussir la mise en œuvre du système
proposé, nous nous intéressons à la technologie des BioMEMS. La micro pompe
visée serait composée de matériaux flexibles et doit être miniaturisée pour
permettre son implantation au niveau du cortex. Suite à une revue de la
littérature sur le design de micro pompes et un survol de composants
disponibles commercialement, nous examinerons les unités de contrôle de micro
pompes existantes. Ensuite, nous entreprenons ce projet selon les principales
étapes suivantes:
Ø Mise en œuvre d’un prototypage se
servant de circuits discrets pour valider le principe de la solution proposée;
Ø Design et fabrication d’une pompe;
Ø Conception et test de l’interface
électronique dédiée au contrôle de micro pompe complétée;
Ø Validation de l’opération et publication
des résultats.
RÉSULTATS:
L’apparition d’une crise épileptique a été
simulée par une impulsion générée pour démarrer la micro pompe. L’impulsion
générée pour simuler une crise a provoqué la génération des signaux de contrôle
définissant la période de l’activation du système en entier. Ce signal défini
aussi la fréquence d’activation du micromoteur attaché au diaphragme de la
micro pompe. Comme prévu, le système de pompage a délivré la dose de fluide
programmée et s’est remis en veille à la fin du pompage. La consommation
énergétique sous une tension de 5 V du système complet est de 3.34 mA en veille
et 40 mA en opération. La consommation de la carte de contrôle est de 3.32 mA
en veille et 3.72 mA en mode actif.
Les résultats obtenus sont encourageants, car
le système permet de recevoir les paramètres d’opération. Aussi, le débit de
pompage et le délai avant sa remise en veille peuvent être changés.
L’utilisation de la membrane en silicone PDMS a conféré une grande élasticité
ce qui a permis d’atteindre des débits de l’ordre du millilitre par minute.
Comparé à un système de pompage du commerce, notre système nous a permis de
réaliser une économie de 50% de la consommation énergétique. Cependant, la
consommation de la carte de contrôle ne chute pas considérablement quand cette
dernière est en veille. Cela est dû au module Bluetooth faisant partie de la
carte. En effet, la radio de ce dernier est en fonctionnement continu pour
permettre la connexion à tout moment. De plus, l’utilisation de la version 2.1
EDR du protocole ne permet pas de réduire la consommation lorsque le circuit
attend pour se connecter. L’usage d’un protocole de communication basse
puissance comme le Bluetooth 4 permettrait de réduire énormément la
consommation en veille.
HASANUZZAMAN, Md |
DIPLÔME: Ph.D. |
TITRE:
Un
système implantable hautement flexible de faible puissance dédié à la
microstimulation intracorticale visuelle.
RÉSUMÉ:
L'objectif de ce projet est de concevoir un
microstimulateur intracortical microélectronique pour faciliter la recherche en
prothèse visuelle et, à long terme pour aider les personnes ayant une
déficience visuelle.
PROBLÉMATIQUE:
Jusqu'à présent, la plupart des prothèses
visuelles développées sont basées sur la microstimulation de la rétine à qui il
manque la haute résolution. La technique de microstimulation intracorticale
résout cette limitation, mais les conceptions proposées jusqu'ici ne répondent
pas à la conformité de haute tension; capacités de surveillance de la tension,
impédance et de la charge, débit de données élevé, à haut rendement énergétique
des générateurs de stimuli, et une nouvelle stratégie de microstimulation pour
créer une vision utile dans le même système de microstimulation.
MÉTHODOLOGIE:
Ø Une revue exhaustive de la
littérature est effectuée dans notre domaine de recherche pour trouver les
limites, les défis et les problèmes non résolus qui existent en microstimulation
intracorticale visuelle.
Ø Conception, aménagement et
simulation post-layout des circuits électroniques intégrés utilisant les
technologies de l'outil Cadence.
Ø Mesure des puces fabriquées via
Canadian Microelectronics Corporation (CMC), dans le laboratoire Polystim et
l'exécution in-vitro et in-vivo des tests afin de vérifier si les
systèmes conçus peuvent répondre aux exigences.
RÉSULTATS:
Quatre puces ont été fabriquées et testées dans
le laboratoire Polystim. Le premier circuit intégré (CI) fonctionne en partie à
cause des erreurs dans le processus de fabrication et le deuxième CI est
entièrement fonctionnel. Ce dernier sera relié à un réseau de
microélectrodes pour réaliser des tests in-vitro et in-vivo. La
troisième puce fabriquée, un générateur de stimulus à haut rendement
énergétique, qui va être connectée au deuxième CI a été fabriqué et testé, il
est entièrement fonctionnel. Le quatrième CI, conçu et fabriqué en technologie
AMS0.35 µm, est fonctionnel maisi il consomme un courant élevé et il est sous
test maintenant. Un certain nombre d’articles qui présentent les résultats de
tests et de simulation post-layout ont été publiés. D’autres articles sont en
cours de rédaction actuellement.
HUSSAIN Wasim
DIPLÔME: M.Sc.A.
TITRE:
Fournir des liens bidirectionnels et une
capacité de communication analogique en WaferBoard™.
RÉSUMÉ:
L'objectif de la recherche est le suivant:
Ø Développer une interface qui peut prendre en charge
des liens bidirectionnels comme le bus I2C sur WaferBoard™.
Ø Développer une interface analogique qui fera la démonstration
des performances améliorées par rapport à celui existant dans WaferBoard™.
PROBLÉMATIQUE:
WaferBoard™ est une plate-forme configurable
qui peut assurer l'interconnexion entre des circuits intégrés pour un système
électronique de prototypage et de test. Le réseau d'interconnexion est
compatible avec tout signal numérique parce que la commutation / routage est
effectuée par des multiplexeurs numériques. Ainsi, l'interface bidirectionnelle
et analogique n’est pas possible dans la version actuelle de WaferBoard™.
MÉTHODOLOGIE:
Le projet interface bidirectionnelle,
lorsqu'ils sont interconnectés par le biais WaferBoard™, peut imiter le
comportement d'une “ligne de métal unique” pour les bus à drain (ou collecteur)
ouvert du protocole I2C. Ainsi, plusieurs nœuds de circuits
différents peuvent être raccordés ensemble sur WaferBoard™.
Un circuit d'interface analogique basé sur une
modulation sigma-delta asynchrone a été proposé pour WaferBoard™.
RÉSULTATS:
L'interface bidirectionnelle peut prendre en
charge nombre infinie de nœuds I2C. Cependant, l'augmentation du
nombre de nœuds impliquera une diminution de la vitesse de communication. Les
circuits ont été fabriqués dans IBM processus de COCM de 0.13µm. Les résultats
des tests ont validé le concept.
L'interface analogique peut prendre en charge
une bande passante de signal de 1 MHz. Le circuit a été fabriqué dans IBM
processus de COCM de 0.13µm. Les résultats des tests ont fortement validé le
concept.
KAMRANI, Ehsan
DIPLÔME: Ph.D.
TITRE:
Concevoir un système «Integrated Near Infra-Red
Spectroscopy (INIRS)» pour l’imagerie cérébrale en temps réel.
RÉSUMÉ:
Un système intégré de spectroscopie infrarouge
proche (INIRS) fournit un moyen peu couteux, non invasif et portable pour
surveiller le fonctionnement du cerveau et les tissus biologiques. Il peut être
appliqué dans les diagnostics médicaux modernes pour déterminer l’oxygénation
cérébrale, le débit sanguin et l’état métabolique du cerveau. La fNIRS à onde
continue (CW-fNIRS) comprend la source de lumière et le photorécepteur frontal.
L’élément fondamental du système fNIRS est le photorécepteur frontal qui
comprend une photodiode et un amplificateur de transimpédance (TIA). En
conséquence, la conception d’un bon photorécepteur fNIRS pour l’imagerie
cérébrale portable et en temps réel est la cible la plus difficile que nous
avons abordé dans ce travail
PROBLÉMATIQUE:
La lumière reçue par un photo-détecteur fNIRS
est d’abord transformée en courant électrique et un TIA converti ensuite le
courant à la tension maximale pour optimiser le rapport signal sur bruit (SNR)
pour les étapes suivantes du récepteur pour un traitement ultérieur. Par
conséquent, le TIA joue un rôle essentiel entre le photo-détecteur et le
circuit suivant. Comme photo-détecteur, nous avons utilisé une photodiode au
silicium à avalanche (SiAPD) en raison de sa simplicité et de sa haute
sensibilité, ses caractéristiques de gains inhérents et la facilité de
fabrication d’un capteur d’images CMOS intégré. Toutefois, les principaux
inconvénients des SIAPDs sont leur temps de transit relativement long, en
comparaison des diodes PIN rapides, et leur bruit généré en interne en raison
du facteur de multiplication par avalanche. À cause de l’impédance de faible
amplitude et le plus souvent à haute source de signaux fNIRS, le photorécepteur
frontal doit répondre à certaines exigences de base. Ces exigences comprennent :
gain de transimpédance d’entrée élevée, une faible impédance de sortie
relativement à l’impédance de charge, largeur de bande étroite autour de la
fréquence requise pour augmenter le SNR, des caractéristiques de faible bruit
d’entrée, faible consommation d’énergie, le swing de sortie élevée, une large
gamme dynamique, rejet de la lumière ambiante et à faible tension de
fonctionnement.
MÉTHODOLOGIE:
Afin de surmonter les limitations des systèmes
actuellement fNIRS non-portables disponibles, un nouveau détecteur de lumière à
faible bruit miniaturisé, reconfigurable a été proposé et conçu. Il comprend
trois nouveaux TIA et un circuit Quench-Reset contrôlable intégré, avec des
photodiodes à avalanche au silicium (nouveaux SiAPDs) sur la même puce
utilisant la technologie CMOS standard. Nous avons présenté plusieurs CMOS à
faible bruit et à haute sensibilité SiAPD intégrée sur la puce avec une option
TIA à être utilisée dans un photorécepteur fNIRS frontal. L’optimisation de la
performance des ADP CMOS se fait par simulation au niveau périphérique à l’aide
du logiciel TCAD Sentaurus.
RÉSULTATS:
Des propositions de circuits intégrés ont été
mises en œuvre dans une petite zone (1mm2) et fabriquées par TSMC
via CMC Microsystèmes. Les SiAPDs proposées offrent un gain d’avalanche élevé
(>100) avec l’épaisseur de la couche d’ozone supérieure à 40 µn et 10 µm,
une tension de claquage faible (<12V) et une efficacité d’absorption de
photons de haute tension (~85%) à 700 nm. Les DRM proposés offrent une
consommation d’énergie faible (~0.8mW»), haute de transimpédance de gain
(jusqu’à 250mV/A), bande passante accordable (100Hz-1GHz) et un très faible
bruit d’entrée et de sortie (quelques fA/√Hz et quelques mV/√Hz).
Le circuit de comptage de photons offre également un temps rapide de
réinitialisation, une faible consommation d’énergie (~1mW), une basse tension
(1.8V) et un circuit hold-off de temps contrôlable intégré, tous fabriqué dans
une zone de surface faible (0.1 mm2). Le travail est en cours en vue
d’intégrer APD avec le CW-SPIR et les circuits en mode de comptage de photons
et émetteur-récepteur sans fil sur une seule puce. Nos objectifs actuels sont
d’améliorer l’efficacité du front-end du photo-détecteur et le développement
d’un détecteur multi canaux pour être combiné avec un EEG de chevet pour le
suivi de convulsions et d’épilepsie et aussi pour répondre aux exigences et aux
critères cliniques.
KARIMIAN-SICHANY, Masood DIPLÔME: PH.D.
TITRE:
Convertisseur numérique-analogique (DAC) dédié à des générateurs de signaux
sinus pour les applications avioniques.
RÉSUMÉ:
Dans ce projet, un convertisseur
numérique-analogique (DAC) à sur-échantillonnage 10-bit a été conçu. Le DAC est
le noyau d’un générateur de signaux d’excitation polyvalent (ESG) dédié à une
interface de capteurs intelligents avioniques. La haute fréquence
d’échantillonnage peut être utilisée dans ce convertisseur «segmented
current steering» afin d’obtenir un bon rapport signal sur bruit (SNR).
Lors de la conception du module au niveau du convertisseur, l’impact de la mise
en œuvre de la matrice de sources de courant carré et non carré (CSA) sur
l’exécution de la séquence de commutation est introduite.
Une séquence de commutation optimale pour la taille CSA a été conçue.
PROBLÉMATIQUE:
Les capteurs et les actionneurs de
type high channel count sont nécessaires pour aborder un nombre
croissant de fonctions à bord des aéronefs. Avec la technologie traditionnelle
anionique, relier les dispositifs résulte en des faisceaux de câbles
encombrants. En outre, dans de nouveaux systèmes avioniques, les communications
entre périphériques via différents domaines d’application sont également
nécessaires, ce qui augmente considérablement le flux d'informations au sein de
l’appareil. Les faisceaux de fils électriques et la demande d’une bande
passante de communication de plus en plus élevée posent des défis nécessitant
le développement de nouveaux bus de données avioniques. L’emploi d’une haute
vitesse, des structures de bus de données haut débit et de nouvelles
technologies de capteurs dans les réseaux de capteurs avioniques, génère le
besoin d’une interface fiable, flexible et universelle, qui devrait permettre de
réduire la complexité du réseau d’interconnexion. En ce qui concerne le
potentiel de la technologie state-of-the-art CMOS, elle est d'un grand intérêt
pour la construction d’une interface de capteur totalement intégrée.
MÉTHODOLOGIE:
Compte tenu des objectifs et des
défis de cette recherche, une nouvelle unité ESG a été conçue qui peut être
intégrée avec l’unité d'acquisition de données pour constituer un module de
système sur puce SSI pour les applications avioniques. L’exactitude et la
précision de la sortie ESG ainsi que la programmation de la fréquence et de
l’amplitude devraient être procurées dans la conception des systèmes et
circuits. Ce travail présente la méthode de calcul pour la réalisation d'un DAC
de haute précision sur la base duquel l’ESG génère le signal d’excitation.
RÉSULTATS:
Le Convertisseur a été fabriqué sur puce 1,2 x 1,2 mm2 en
utilisant la technologie IBM 0.13μm CMOS. Sous une onde sinusoïdale de
courant avec un pic de 1023 pA, le CAD à proposer est en mesure de réaliser un
SNR de 84 dB meilleur que dans la bande de Nyquist DC à 20 kHz.
KASSAB Amal
DIPLÔME : M.Sc.A.
TITRE:
Conception de casques NIRS pour surveiller les activités cérébrales à
long terme.
RÉSUMÉ:
La détection de l'activité cérébrale en
utilisant la spectroscopie infrarouge proche (NIRS) et
l'électroencéphalographie (EEG) est devenue une source majeure de compréhension
dans les applications médicales et de l’ingénierie. Cette méthode non invasive
de surveillance est considérée comme la première étape de détermination de
maladies cérébrales. En outre, l’interface cerveau-machine permet la commande
directe de divers appareils utilisant directement l’activité du cerveau.
PROBLÉMATIQUE:
Les plus grands défis dans la création d’une
telle interface sont la stabilité et le confort, en particulier pour la
détection de l’activité cérébrale à long terme. Ceci est particulièrement
important dans la NIRS, car elle est très sensible aux artéfacts de mouvement.
Par conséquent, les chapeaux NIRS existants devaient compromettre le confort
afin d’obtenir la stabilité nécessaire. Cependant, ces solutions ne peuvent pas
être traduites dans les applications qui nécessitent 6 heures ou plus de
surveillance continue. Dans cette conception d’un casque NIRS/EEG, un système
pneumatonique constituée d’une pompe, des ballons et des capteurs agissent
ensemble pour créer et maintenir une interface avec une pression uniforme et
confortable tout en assurant le contact avec le cuir chevelu à tous les points,
créant ainsi une adaptation de topographie avec le crâne, qui est stable et
confortable en même temps.
MÉTHODOLOGIE:
Les étapes de conception sont les suivantes:
Ø Créer un prototype basé sur le
concept théorique conçu.
Ø Tester le prototype selon deux
aspects: la stabilité et le confort.
RÉSULTATS:
De nombreux modèles des casquettes ont été
construits, certains d’entre eux sont utilisés actuellement avec le système de
SPIR du groupe Imaginc. Cependant, le modèle final est encore en construction.
Il n’y a pas de résultats concrets à ce jour.
KEITA, Abdoul-Kader, DIPLÔME: M. Ing.
TITRE:
Énumération efficace de sous-graphes convexes
sous contraintes architecturales.
RÉSUMÉ:
Ce projet présente un algorithme
d’énumération de sous-graphe convexe dans le contexte de l’extension du jeu
d’instruction d’un processeur configurable.
PROBLÉMATIQUE:
L’architecture à programmes enregistrés des
processeurs à usage généraux est intrinsèquement peu efficace. Pour respecter
les contraintes énergétiques caractéristiques des domaines embarqués, certains
concepteurs se tournent vers les processeurs configurables. Dans ce contexte,
les performances du circuit obtenu sont tributaires de la capacité du
concepteur à identifier les opportunités d’accélération dans l’application cible
et à les exprimer sous forme de nouvelles instructions pour les processeurs
configurables. L’automatisation de ce processus d’identification est donc
critique à la productivité du concepteur. Sous certaines hypothèses simples, ce
problème peut être réduit à l’énumération de sous-graphe convexe avec des
contraintes sur le nombre d’entrées et de sorties.
La complexité de ce problème est exponentielle
selon la taille de l’application cible. Il est donc nécessaire d’utiliser des
méthodes d’implémentation ainsi que des heuristiques de recherche pour obtenir
des temps de calcul raisonnables.
MÉTHODOLOGIE:
Après une revue de littérature récente, les
travaux de (Bonzini & Pozzi, 2007) ont été implémenté
et ont servis de base de comparaison. Le nouvel algorithme a été développé dans
le contexte de la programmation par contraintes qui donne des outils théoriques
précis pour contraster les approches précédentes et également clairement
identifier les possibilités d’amélioration de nos propositions. Une attention
particulière est portée sur la qualité de l’implémentation, notamment,
l’utilisation d’instructions vectorielles, lorsque possible.
RÉSULTATS:
Les deux principaux résultats issus de nos
travaux sont une implémentation efficace de l’algorithme proposé (Bonzini &
Pozzi, 2007) et un nouvel algorithme qui présente de meilleures
caractéristiques de recherche. Évalué sur un benchmark standard, notre
proposition offre une accélération moyenne de 19x, avec des instances allant
jusqu’à 468x. On obtient également des temps d’analyse très bas, ce qui permet
de traiter des instances de très grande taille.
KEKLIKIAN, Thalie
DIPLÔME: M.Sc.A
TITRE:
Analyse et modélisation du comportement d’un
algorithme de multiplication entre une matrice creuse et un vecteur sur un
processeur graphique.
RÉSUMÉ:
La multiplication entre une matrice et un
vecteur est un calcul utilisé dans plusieurs domaines, dont la théorie des
réseaux ou les équations différentielles. Depuis l’introduction de la
plateforme CUDA (Compute Unified Device Architecture), les processeurs
graphiques ont été utilisés pour optimiser la performance de ce calcul. Le
projet vise à réaliser un modèle qui permettra d’analyser l’implémentation d’un
tel calcul sur un processeur graphique. Les résultats permettront de mieux
connaître l’architecture des processeurs graphiques et de prédire la
performance d’une multiplication entre une matrice creuse et un vecteur
implémenté sur ceux-ci.
PROBLÉMATIQUE:
Contrairement aux processeurs généraux, les
processeurs graphiques sont conçus pour accélérer le débit d’une application.
Grâce à leurs multiples cœurs agencés dans une architecture SIMD (Single
Instruction Multiple Data), ils peuvent augmenter la performance d’algorithmes
de calculs vectoriels. La performance d’une multiplication entre une matrice et
un vecteur est limitée par les accès à la mémoire. La meilleure implémentation
du calcul sur processeur graphique est difficile à trouver puisqu’elle dépend
fortement de la répartition des éléments non nuls de la matrice creuse.
Un modèle sera donc implémenté pour étudier les
transactions à la mémoire d’une matrice fournie par rapport à l’implémentation
CUDA qui sera utilisée. Connaître ce nombre à l’avance permet d’estimer le
temps d’exécution de l’application et donc sa performance. Un tel modèle
permettra à un programmeur de choisir l’implémentation qui offrira la meilleure
performance pour son problème.
MÉTHODOLOGIE:
Tout
d’abord, il faut implémenter le calcul à l’aide du langage CUDA C en utilisant
différentes formes de stockage de la matrice creuse en mémoire. Le modèle sera
réalisé sur MATLAB et mesurera le nombre de requêtes et de transactions à la
mémoire requis pour chaque implémentation et matrice testée. Les matrices
proviendront d’une banque de données sur internet, bien connue de la
littérature. Les résultats seront comparés aux résultats de profilage de deux
cartes NVIDIA : GeForce GTX 670 et Tesla K20.
Les
résultats des expérimentations permettront de comparer deux formats ainsi que
les deux processeurs graphiques utilisés. Enfin, il serait ultimement possible
de proposer un format qui surpasserait tous les autres.
RÉSULTATS:
Pour
l’instant, un modèle a été réalisé pour des matrices creuses stockées en
mémoire à l’aide du format CSR (Compressed Sparse Row). Dans le meilleur des
cas, le modèle prédit exactement le nombre de transactions à la mémoire qui est
mesurée par le profileur. Les résultats de profilage montrent aussi que, comme
attendu, le temps d’exécution du calcul est lié au nombre de transactions à la
mémoire. La prochaine étape est d’adapter le modèle à d’autres formats de la
littérature.
TITRE:
Élaboration d’un chemin d’acquisition de
données à haute résolution et faible latence, dédié aux applications
avioniques.
RÉSUMÉ:
L’acquisition
des signaux ainsi que leur traitement sont importants pour un avion. Sans ses
capteurs, un avion est aveugle dans le ciel. Notre travail de recherche
s’intéresse à l’interface électronique des capteurs L/RVDT utilisés dans les
avions de Bombardier et plus précisément à l’unité d’acquisition des signaux.
Étant donné que, de nos jours, la tendance est vers le digital, la numérisation
des données du capteur est la fonction la plus importante dans sa chaine
d’acquisition. La résolution, la précision et la rapidité sont des facteurs
vitaux dans les systèmes avioniques. Nous avons alors proposé une architecture
complète pour convertir et traiter les signaux du capteur L/RVDT avec une résolution
de 14 bits et une latence totale de moins de 2 ms.
PROBLÉMATIQUE:
Une des
meilleures architectures de convertisseurs analogique-numérique (CAN) est le
Sigma-Delta; il permet d’obtenir un signal numérique de plus haute résolution
que tout autre convertisseur analogique-numérique et ce en utilisant le même
nombre de bits. Il se compose de deux parties: un modulateur et un filtre
décimateur. Afin d’assurer une haute résolution, on doit utiliser des filtres
d’ordre élevé ce qui entraîne une latence élevée. Il est alors obligatoire de
proposer une nouvelle architecture de filtres décimateur dédié à un modulateur
Sigma-Delta fonctionnant en fréquence 5.12o -MHz et présentant un
SNR supérieur à 85 dB (résolution de 14 bits au minimum) sans dépasser une
latence de 2 ms.
MÉTHODOLOGIE:
Ø Revue
de la littérature sur les convertisseurs analogiques-numériques de haute
résolution.
Ø Caractérisation
du modulateur Sigma-Delta utilisé afin de déterminer ses différents paramètres et
de compléter par la suite le chemin d’acquisitions de signal (CAS).
Ø Élaboration
d’une architecture complète d’un chemin d’acquisition du signal (CAS) assurant
la résolution demandée.
Ø Réduction
de la latence introduite par le système en modifiant les parties les plus
critiques (par exemple le filtre décimateur) sans diminuer la résolution de 14
bits.
Ø Implémentation
de la solution proposée sur une carte FPGA pour valider notre travail.
RÉSULTATS:
La simulation
par Simulink de l’architecture proposée pour la chaine d’acquisition du signal
montre une bonne résolution avec une latence inférieure à 1 ms.
L’implémentation de l’architecture proposée respecte toujours les contraintes
imposées par l’industrie.
KOWARZYK MORENO, Gilbert |
DIPLÔME : Ph.D. |
TITRE:
Développement d’algorithmes de recherche
implicitement-exhaustif et de simulation de codes convolutionnels doublement
orthogonaux parallèle pour plateforme de calcul à haute performance.
RÉSUMÉ:
Le présent projet est une suite logique des
travaux entrepris par le GRM portant sur la recherche de codes convolutionnels
doublement orthogonaux (CDO) et de leurs variantes. Ceux-ci sont utilisés pour
l’implémentation de décodeurs à seuil itératifs et à architecture configurable
ayant des caractéristiques désirables en termes de latence, de complexité et de
performance en correction d’erreurs. La principale motivation de ce travail est
de concevoir, implémenter et optimiser un algorithme de recherche permettant de
trouver, dans un temps de calcul réduit, des codes optimaux de type CDO au sens
large et CDO simplifiés (S-CDO). La nouvelle technique combine plusieurs
améliorations algorithmiques et un usage plus efficace des ordinateurs
multi-cœurs pour réduire le temps de calcul et pour permettre l’obtention de
nouveaux codes plus courts, ainsi que de nouveaux codes optimaux. On vise
également à concevoir un simulateur de décodeurs à seuil itératifs de haute
performance.
PROBLÉMATIQUE:
Avec l’omniprésence des moyens de communication
électroniques et le besoin d’une bande passante de plus en plus grande, il
devient important à la fois d’avoir des communications fiables et de trouver
des techniques maximisant le débit d’information utile. Le décodage à seuil
itératif permet de minimiser la probabilité d’erreurs de transmission et offre
une alternative intéressante aux décodeurs turbo à latence et complexité
généralement plus élevées. Ce travail concerne l’accélération de la recherche
de codes CDO simplifiés et au sens large. Les codes obtenus seront utilisés
pour la conception de décodeurs CDO à basse latence et bonne performance en
correction d’erreurs.
MÉTHODOLOGIE:
La première phase de ce projet consiste à
analyser l’algorithme référence pour la recherche de CDO et d’identifier les
goulots d’étranglement associés. Dans une deuxième phase, un algorithme
parallèle et implicitement-exhaustif pour la recherche de codes CDO (au sens
large, simplifié et récursif) sera développé et implémenté. Celui-ci mettra en
œuvre des techniques permettant d’utiliser de façon plus efficace le matériel à
multi-cœurs, et d’éliminer (ou de réduire) les délais associés aux goulots
d’étranglement de l’algorithme de référence. Des techniques permettant
d’arrêter et de redémarrer la recherche de codes seront développées : ceci
est nécessaire, car le temps d’exécution du logiciel parfois excède le MTBF de
la machine où il a été lancé. Dans une troisième phase, les leçons apprises
seront utilisées pour développer un algorithme adapté à l’usage du GPGPU ou des
plateformes de développement à processeurs hétérogènes. Des tests seront
effectués afin de pouvoir comparer les nouvelles performances et d’assurer que
la recherche est toujours exhaustive et valide. Finalement, un simulateur de décodeurs
à seuil itératifs sera conçu.
RÉSULTATS:
Un algorithme parallèle implicitement-exhaustif
fut développé et implémenté. Les performances du nouveau logiciel de recherche
sont entre 3 et 4 ordres de grandeurs meilleures par rapport à l’algorithme de
référence. De nouveaux codes plus courts et de nouveaux codes optimaux furent
trouvés et validés. L’ajout de techniques pour arrêter/redémarrer la recherche
fut complété. Le développement de nouveaux algorithmes pour le calcul de type
GPGPU est présentement en cours.
KROUCHEV,
Nedialko
DIPLÔME: Ph.D.
TITRE:
Micro
stimulation optimale du tissu nerveux – des modèles aux dispositifs.
RÉSUMÉ
Pour mieux comprendre et définir rigoureusement
l’optimalité des dispositifs de stimulation électrique (SE), nous analysons la
dynamique neuronale à différentes échelles – du compartiment unique aux réseaux
cérébraux.
En collaboration avec des équipes à
l’avant-garde de l’électrophysiologie (U. Montréal, McGill, U. Washington),
nous avons accès à des données expérimentales et nous validons nos modèles et
protocoles d’applications.
PROBLÉMATIQUE:
Quelle est la façon la plus efficace d'activer le tissu ciblé? Quelle forme
d'onde minimise la consommation d'énergie? Quels sont les effets de la
stimulation à court, moyen et long terme?
La recherche d’effets fonctionnels particuliers est dominée par les méthodes ad hoc. Il y a donc besoin de
plus de connaissances sur la dynamique des neurones et leurs réseaux.
MÉTHODOLOGIE:
Modélisation des propriétés électriques de la SEF en augmentant
graduellement la complexité. Simulation en dynamique en tenant compte de
l’organisation corticale pour étudier la plasticité neuronale et la corrélation
entre les régions stimulées.
RÉSULTATS:
Description des propriétés neuro-dynamiques en
fonction des paramètres électrophysiologiques: excitabilité, plasticité, entraînement, etc.
Principe d’optimalité énergétique connue sous
le terme variationnel de moindre action;
Ø Vaste étude bibliographique sur : les
canaux sodiques voltage-dépendants de divers sous types Nav1.X du SNC ;
les facteurs qui affectent la transmission : densité et types des canaux ioniques,
courants de seuil, température, etc;
Ø Analyse des bifurcations de codimention 2
sur une plage étendue de variation des paramètres;
Ø Nouveaux résultats concluants pour
l’article sur la meuro-dynamique;
Ø Nouveaux résultats concluants pour le
projet au MNI.
Tâches prioritaires:
Ø Finaliser
l’écriture de l’article sur la neuro-dynamique, le discuter et soumettre vers la fin mai/début juin;
Ø Finaliser et
présenter l’analyse approfondie des données expérimentales de l’aire V1 du
projet et les nouveaux résultats de modélisation au MNI;
Ø Avancer sur un plan pratique de nouvelles idées sur
l’analyse et la modélisation paramétrique du blocage de la transmission dans
les nerfs périphériques. Ceux-là découlent directement de nos travaux sur la
neuro-dynamique. De plus, ils portent sur un sujet d’actualité biomédical sur
le blocage de la transmission de la douleur chronique. L’étroite collaboration
avec le Professeur Rattay à Vienne nous permet de puiser dans sa vaste
expertise et de produire un EMBS poster de qualité à
temps pour la date limite (le 26 mai). L’extension de ce travail en un ou
plusieurs articles sera assez directe.
LAFLAMME-MAYER, Nicolas |
DIPLÔME: Ph.D. |
TITRE:
La
conception d’un système de tests intégrés auto-vérifiant, le perfectionnement
et la mise à l’essai d’un microsystème à base de circuits intégrés de grande
taille –DreamWaferTM
RÉSUMÉ:
Le projet DreamWafer™ est un projet de recherche conjoint
entre l’UQO, l’UQAM et l’École Polytechnique de Montréal (ÉPM) ainsi que de
partenaires industriels visant à créer une carte innovatrice de prototypage
rapide de systèmes. Plusieurs circuits intégrés (ICs) sont déposés
aléatoirement sur cette carte WaferBoard™, qui est ensuite configurée pour
interconnecter ces ICs par des liens physiques configurables à l’aide de
circuits actifs dans une tranche de silicium (WaferIC™) comme le ferait un
circuit imprimé.
PROBLÉMATIQUE:
Développer une méthode de test
s’appuyant sur l’intégration de senseurs de courant, de charges de courant
configurables et de détecteurs de fréquence pour caractériser le courant
maximal et la fréquence maximale de l’entrée/sortie numérique d’un plot. Élaborer
un système de communication vers l’extérieur en utilisant le lien JTAG pour
renvoyer à l’utilisateur le statut et la plage de fonctionnement du plot
configurable. La caractérisation d’une charge déposée sur un plot peut être
atteinte en réutilisant le détecteur de fréquence pour caractériser la réponse
fréquentielle d’un circuit intégré en contact avec le plot.
MÉTHODOLOGIE:
Des designs de régulateurs distribués à double rail
d’alimentation seront élaborés avec des contraintes de surface et de performance
en plus d’une nouvelle approche compacte et plus performante pour un BandGap
configurable. La fonctionnalité de tels circuits sera validée au moyen d’outils
de CAO tel que CADENCE avec une technologie CMOS de 180nm. La ou les
solutions les plus prometteuses seront ensuite dessinées, fabriquées et testées
dans cette même technologie pour valider leur comportement et leur performance.
Ø Comparaison d’architecture pour déterminer l’option
la plus prometteuse afin d’obtenir plusieurs références de tension
programmables stables en température et stables par rapport à VDD;
Ø Design d’un DAC programmable combiné avec un bandgap
en schématique à l’aide de Cadence;
Ø Design d’un bandgap avec plusieurs branches de sortie
à plusieurs niveaux de tension programmable en schématique à l’aide de Cadence;
Ø Choix de l’architecture la plus prometteuse et design
du layout avec Cadence;
Ø Investigation, choix et design d’un régulateur de
tension programmable en schématique avec Cadence;
Ø Layout de l’architecture la plus prometteuse avec
Cadence;
Ø Fabrication d’un prototype;
Ø Test du prototype;
Ø Rédaction d’articles.
RÉSULTATS:
Ø Une première puce à été fabriquée et
a été testée.
Ø Une seconde puce a été fabriquée et
a été testée.
.
LARBANET, Adrien
DIPLOME:M. Sc. A.
TITRE:
Référencement et détection de fichiers vidéo
sur lien 40 GbE avec l’algorithme de max-Hashing implémenté sur GPU
RÉSUMÉ:
La quantité d'information créée, stockée et
échangée, de manière numérique, croît chaque année. Il y a en effet un nombre
croissant d'utilisateurs d'Internet dans le monde (2 milliards en 2010) et,
d'autre part, le débit des liens et la capacité des supports de stockage
numériques ne cessent d'augmenter. Cet environnement, en croissance perpétuelle
donc, ne facilite pas la recherche d’objets numériques illégaux, stockés ou
échangés. En partenariat avec la société NetClean, notre travail consiste à
concevoir des équipements capables d’analyser le trafic d’information circulant
sur des liens dont le débit peut atteindre 40 voire 100 Gbps. On souhaite
pouvoir identifier, dans ce trafic, le passage de fichiers (ou segments de
fichiers) considérés illégaux. Le premier champ d’application concerne la lutte
contre la diffusion de fichiers à contenu pédopornographique. Nous nous
concentrons sur l’étude du référencement et de la détection de fichiers vidéo.
PROBLÉMATIQUE:
Un fichier transféré sur un lien internet est
fragmenté en une multitude de paquets. Ces derniers sont acheminés vers leur
destination via des liens qui transportent d’autres informations provenant
d’autres utilisateurs et, ce, à des débits pouvant atteindre 100 Gbps. Les
paquets n’empruntent pas nécessairement le même chemin dans le réseau ce qui
signifie que, les paquets ne transitent pas tous sur un lien en particulier et
ne passent pas forcément dans l’ordre. L’algorithme de max-Hashing permet de
répondre à toutes ces contraintes et son implémentation sur GPU devrait
permettre de supporter de tels débits. De plus, en étudiant l’organisation de
l’information dans un fichier vidéo, on remarque une quantité relativement
importante de métadonnées : des segments de données qui sont communs à
tous les fichiers de même «format». Or, l’algorithme de max-Hashing est
sensible à ces similarités et, s’il est appliqué de manière brute à un fichier
vidéo, il en découle un taux important de «faux-positifs» lors de la détection
(i.e. des fichiers non illégaux sont vus comme illégaux). Il s’agit donc
d’améliorer le référencement de tels fichiers.
MÉTHODOLOGIE:
Afin de minimiser le taux de faux-positifs lors
de la détection, il convient de s’assurer de l’originalité des signatures
extraites lors du référencement avec une version enrichie de l’algorithme
(vérifier que ces signatures sont uniques à un fichier et un seul). Pour
parvenir à cette version enrichie, on modifie le logiciel libre et open source
FFmpeg afin de localiser les segments à haute entropie dans le fichier vidéo,
c'est-à-dire les segments qui contiennent l’information propre à la vidéo. Une
fois localisés, on focalise l’algorithme de max-Hashing sur ces derniers. Plus
tard, lors de la détection, on veut s’assurer que les paquets Ethernet reçus sont
bien acheminés vers la mémoire du GPU avant d’y être traités : on veut
pouvoir détecter, sans erreur, les fichiers (et segments de fichiers) qui
seraient transmis à un débit de 40 Gbps.
RÉSULTATS:
On applique l’algorithme brut et sa version
enrichie sur 8073 vidéos encodées au format H.264. Chaque signature est
comparée à toutes celles générées avec la même version de l’algorithme. Celles
qui se retrouvent dans au moins deux fichiers sont considérées comme
redondantes et donc non-utilisables pour la détection. La nouvelle méthode
parvient à prévenir la génération de toute redondance (1 signature sur 10000
était redondante auparavant). Dans le cadre de la détection sur GPU, on peut
traiter jusque 45 Gbps de données. Ce débit étant la capacité maximale de
transfert de données sur le bus PCIe 2.0.
LEGAULT,
Vincent
DIPL.ÔME: M.Sc.A.
TITRE:
Optimisation d’un système graphique sur
plateforme avionique critique.
RÉSUMÉ:
Avec l’arrivée de matériel informatique de plus
en plus performant, l’industrie aéronautique intensifie depuis la dernière
décennie le développement de nouvelles fonctionnalités visuellement attrayantes
telles que le «glass cockpit», la vision synthétique ou encore les cartes de
navigation tridimensionnelles. Bien que ce type de fonctionnalité soit
répandu dans un large éventail de produits comme les jeux vidéo ou les GPS,
l’insertion de ces technologies est retardée pour les systèmes avioniques, qui
doivent se soumettre à des normes de conception très strictes. Parmi ces
nouvelles fonctionnalités visuelles, nous retrouvons, entre autres, les
systèmes de vision synthétique. Il est impératif que la conception et le
développement de ce type de système répondent à un ensemble d’exigences de
sécurité très stricte. Il est donc nécessaire de repenser les méthodologies de
conception actuelles pour permettre de concevoir un système complexe qui
assurera sa mission et qui sera sécuritaire.
PROBLÉMATIQUE:
Les systèmes utilisant un engin graphique haute performance, tels que les systèmes de vision
synthétique, nécessitent des capacités de traitements graphiques substantiels
que les processeurs généraux actuels, qui répondent aux normes avioniques, ne
sont pas capables d’effectuer par manque de puissance. Les compagnies
aéronautiques ne sont pas intéressées par la création d’ASIC spécialisés pour
effectuer du traitement graphique, car la validation de ce type de composant
peut s’avérer très longue et coûteuse vu la complexité du circuit à réaliser.
Toutefois, certaines firmes commencent maintenant à développer des solutions
COTS basées sur des processeurs graphiques d’ancienne génération. L’engin
graphique requis par un système de vision synthétique est très gourmand en
ressource de traitement graphique et nécessite l’utilisation d’un GPU.
Cependant, chaque fois qu’un concepteur développe ou calibre ce genre de
système il se heurte de façon récurrente à la même question : le
traitement graphique de mon application surchargera-t-il le GPU de la
plateforme de déploiement? Jusqu’à présent, aucun outil ne peut aider les
concepteurs à faire un choix éclairé à ce sujet. Sachant cette lacune, il nous
est donc venu l’idée d’implémenter un banc de test spécialisé qui serait une
contribution adaptée et efficace à cette problématique.
MÉTHODOLOGIE:
L’objectif est de réaliser un banc de tests
ayant, en entrée, divers paramètres variables et qui produit en sortie une
série de métriques mesurant les performances de traitement graphique sur une
plateforme cible. Puisque les architectures et les pilotes de GPU sont des
propriétés intellectuelles méticuleusement gardées par les fabricants, notre
banc de tests a été implémenté en utilisant le premier niveau d’abstraction
atteignable (non restreint) soit l’API graphique OpenGL ES SC. L’outil a été
implémenté en C++ un langage de programmation supporté par la plupart des RTOS
à sécurité critique. Cette façon de procéder implique que nous avons considéré
les GPU comme des boîtes noires. Ceci a pour désavantage principal de nous
restreindre quant à la diversité des résultats des tests, mais ceci a
l’avantage de rendre l’outil indépendant des architectures. En caractérisant un
prototype de système de vision synthétique (SVS) nous avons établi la liste des
propriétés graphiques qui ont un impact sur les performances de l’application.
Cette liste de propriété correspond aux paramètres d’entrées de notre banc de tests.
L’objectif des tests réalisés par notre outil est de faire varier chacune de
ces propriétés une à une et de mesurer leurs impacts sur la performance de
traitement graphique d’un système. En procédant de cette façon, nous avons
regroupé sur des graphes, les résultats de chacun de ces tests et, ensuite,
déduit des courbes montrant l’impact sur la performance de chacune des
propriétés mentionnées dans la liste. Avec cet outil, nous offrons aux
développeurs de système de type SVS un instrument leur permettant de calibrer
leurs applications adéquatement de sorte qu’ils puissent tirer profit au
maximum des ressources matérielles présentes sur une plateforme définie.
RÉSULTATS:
Aucun résultat n’est disponible pour l’instant.
LI, MENG
DIPLÔME:Ph.D.
TITRE:
Amélioration de la tolérance aux pannes et
redondance de gestion dans les réseaux AFDX essentiels à la sécurité
RÉSUMÉ:
Cette recherche vise à proposer des
améliorations à l’architecture AFDX, mettre en avant de nouveaux algorithmes et
des améliorations de la fiabilité des réseaux AFDX. En outre, une attention
particulière sera accordée à la gestion de la redondance.
PROBLÉMATIQUE:
Dans les réseaux AFDX, un mécanisme de
redondance est appliqué pour améliorer la tolérance aux pannes du système.
Toutefois, ce mécanisme est insuffisant pour atteindre la tolérance aux pannes
nécessaires pour les applications aérospatiales. Des mécanismes supplémentaires
doivent être explorés afin de coopérer avec les réseaux redondants. En outre,
il existe toujours une source de non-déterminisme dans les réseaux AFDX en ce
qui concerne le moment d’arrivée des paquets. À cause de ce non-déterminisme,
la détection en temps réel de fautes spécifiées dans l’end system de
réception est plus complexe. Également, les trames de chaque lien virtuel sont
dupliquées. Par conséquent, la gestion de la redondance doit être étudiée. Il
reste beaucoup de travail à faire en ce qui concerne la gestion de ces liens
virtuels redondants.
MÉTHODOLOGIE:
Le projet de recherche compte quatre phases
principales :
Ø Phase
I: Effectuer la modélisation des fonctions
et de la fiabilité des réseaux AFDX;
Ø Phase II:
Exécuter la détection de panne et améliorer la tolérance aux pannes dans les
réseaux AFDX
Ø Phase III:
Effectuer la planification et la gestion de la redondance dans le conteste de
AFDX;
Ø Phase IV: Analyser
les performances du réseau sur les plates-formes expérimentales avec les
stratégies développées. L’injection de fautes et évaluation de la fiabilité
sera étudiée et mise en œuvre à ce stade.
RÉSULTATS:
Les résultats préliminaires de cette étude se
situent principalement sur: un mécanisme basé sur une insertion de trames pour
permettre la détection de défauts à la fois dans le système d’extrémité de
réception, améliorant ainsi le réseau au niveau déterminisé. Aussi, une
stratégie d'agrégation Sub-VL a été formulée pour atténuer l’augmentation de la
charge due à l’insertion du réseau. L’idée a été présentée dans un document qui
est provisoirement accepté par IEEE Transactions on Industrial Informatics.
Li,
Nan
Diplôme:Ph.D.
Titre:
La détection de
Neural Spikes avec le Modified Maximum and Minimum Spread Estimation (mMMS)
méthode.
Résumé:
Nous présentons
une architecture simplifiée, intitulé le Modified Maximum and Minimum Spread
Estimation Method (mMMS). La méthode vise à détecter les pointes de neurones
efficacement. Les deux détecteurs, avec différentes tailles de mémoire tampon,
sont conçus et mis en œuvre.
Problématique:
La détection des pointes de neurones est une étape très importante pour la
compression de signaux des neurones dans les systèmes d'enregistrement de
neurones. Une bonne méthode de détection des pics de neurones est obligatoire
de faire effectivement l’enregistrement de neurones, en particulier dans les
systèmes d’enregistrement multicanaux à forte densité de neurones. Il existe
plusieurs méthodes d’estimation mathématiques qui peuvent être utilisées pour
déterminer le seuil d’amplitude pour la détection des pics. Parmi ces méthodes,
le détecteur mMMS, basé sur le MMS, fournit la précision de l’estimation
attendue alors que sa mise en œuvre au niveau circuit ne nécessite pas
d’architecture complexe.
Méthodologie:
Afin d'évaluer la précision de l’estimation et de la consommation de
puissance des deux détecteurs MMS et MMM, les signaux enregistrés à partir de
neurones du cortex d’un signe sont utilisés pour la simulation. Les signaux
sont, d’abord, filtré passe-bande avec un filtre Butterworth du troisième ordre
entre 0.3 Hz et 7.5 kHz, échantillonnés à 30 kHz et numérisés à 10 bits avec
une précision de 1 mV. Après l’échantillonnage, les données ont été traitées
avec un filtre passe-haut de Butterworth d'ordres 4 à 300 Hz pour éliminer le
potentiel de champ local; et les données d’échantillonnage ont été
ré-échantillonnées à 24 kHz. Enfin, les segments de bruit libre ont été
extraits à partir des données disponibles pour construire une banque de bruit.
Résultats:
Grâce à la simulation, il est démontré que le circuit mis en oeuvre avec le
procédé mMMS permet de réduire la consommation d'énergie et la région de
dispositif de 30% et 20% respectivement, par rapport au détecteur en fonction
de la méthode MMS. Dans un même temps, la précision de l’estimation du
détecteur MMM est semblable à celle du détecteur MMS.
Ly, My Sandra DIPLÔME: M.Sc.A.
TITRE:
Mesure de
l’impédance d’une solution de neurotransmetteurs.
RÉSUMÉ:
Ce projet porte sur la mesure de l’impédance d’une solution de
neurotransmetteurs. Nous voulons pouvoir détecter les changements en
concentration d’une solution de neurotransmetteurs.
PROBLÉMATIQUE:
Les neurotransmetteurs sont des molécules chimiques circulant dans le
cerveau qui agissent comme messagers en voyageant d’un neurone à un autre. Chez
certains sujets, le nombre de ces neurotransmetteurs est déséquilibré, ce qui engendre
des maladies neurodégénératives telles que les maladies d’Alzheimer et de
Parkinson. Elles causent des coûts faramineux à la société étant donné
l’invalidité des sujets et les médicaments que ceux-ci doivent prendre
quotidiennement. À ce jour, les connaissances sur le développement de telles
maladies sont limitées et les chercheurs qui veulent en savoir davantage
disposent de peu d’outils pour le faire.
Les laboratoires sur puces sont une solution idéale pour ce type de
problématique puisqu’ils sont en général peu coûteux, portables, requièrent
qu’une toute petite quantité de l’échantillon à analyser et sont faciles
d’utilisation. Nous voulons développer un système capable de détecter un
changement dans la concentration de neurotransmetteurs par la mesure de
l’impédance de la solution.
MÉTHODOLOGIE:
Des tests ont été effectués avec des composants discrets afin de valider
s’il y a une relation entre la concentration en neurotransmetteurs d’une
solution et son impédance. Par la suite, un circuit intégré sera conçu pour
répondre aux exigences spécifiques nécessaires pour réaliser les mesures
désirées. Finalement, des tests de validation seront effectués sur le circuit
intégré.
RÉSULTATS:
À partir des résultats obtenus avec le système discret, il est possible
d’affirmer qu’il y a une relation entre la concentration d’une solution de
neurotransmetteurs et son impédance.
La prochaine étape consiste en la conception d’un circuit discret
permettant la mesure d’impédance.
MASSICOTTE,
Geneviève
DIPLÔME: M.Sc.A.
TITRE:
Potentiostat intégré à basse consommation et dédié à un
laboratoire-sur-puce pour la détection et quantification de neurotransmetteurs.
RÉSUMÉ:
Dans ce projet, nous proposons un Potentiostat (capteur électrochimique)
intégré avec une technologie CMOS 0.13µm dédier à la détection des
neurotransmetteurs. Le design proposé offre l'avantage d’offrir une large plage
dynamique de courant d'entrée et une basse consommation de puissance.
PROBLÉMATIQUE:
La communication neuronale par stimulation chimique
est au cœur des processus neurologiques du cerveau humain. Ce phénomène
intervient par un échange de molécules distinctes, appelé neurotransmetteurs, à
la surface membranaire des neurones. L’enregistrement de cette activité à
différents endroits dans le cortex cérébral fournirait les données nécessaires
à une compréhension neurophysiologique avancée du cerveau humain et à ses
pathologies neurodégénératives. Afin de fournir un outil aux chercheurs du
domaine médical intéressé par ces enjeux, Polystim développe
actuellement un laboratoire
sur puce (LoC) dont l’objectif est d’explorer, analyser et superviser
l’activité des neurotransmetteurs au niveau du cortex cérébral.
L’objectif principal de ce projet consiste
à concevoir la partie détection du dispositif LoC afin de détecter et
quantifier plusieurs neurotransmetteurs simultanément. Pour ce faire, la
conception d’un Potentiostat intégré, soit un capteur électrochimique, est
réalisée. Ce capteur doit répondre aux comportements physiologiques des
neurotransmetteurs tout en consommant le moins de puissance possible, puisque
les implants cérébraux sont soumis à de fortes contraintes en terme de
puissance. Nous proposons une nouvelle architecture microélectronique
permettant une faible consommation de puissance et une large plage dynamique.
Le prototype est réalisé sur puce avec une technologie 0.13µm CMOS. La deuxième
partie du projet implique la conception d’électrodes de mesure sélectives à la
dopamine et au glutamate afin de démontrer la validité du prototype conçu.
Enfin, l’intégration finale du capteur dans le LoC sera réalisée.
MÉTHODOLOGIE:
Dans un premier temps, les spécifications du capteur ont été définies en
fonction du comportement physiologique des neurotransmetteurs du cerveau
humain, ainsi que des caractéristiques du laboratoire-sur-puce. Par la suite,
un design basé sur des mesures de temps a été proposé et des simulations avec
la technologie CMOS 0.13µm ont été effectuées; afin de valider le concept.
Enfin, le design a été implémenté sur puce.
RÉSULTATS:
Les résultats de simulation post-lay-out démontrent une plage d’entrée
dynamique de plus de 94dB, incluant la détection de courant allant du pA au µA.
La consommation de puissance varie de 13 µW à 56 µW, pour une fréquence
d’échantillonnage minimale de 1.25 kHz. Les tests de la puce fabriquée sont en
cours.
MEHRI-DEHNAVI,
Marzieh
DIPLÔME: M.Sc.A.
TITRE:
Pixel intégrateur différentiel pour la
minimisation du courant de noirceur à capteurs d’images CMOS.
RÉSUMÉ:
Les capteurs d’images CMOS prennent le dessus
sur le marché de capteurs d’image principalement en raison de leur faible coût,
faible consommation d’énergie et compacité. Les imageurs Charged Couped Device
(CCD) étaient la technologie dominante dans les deux dernières décennies en
raison de leur qualité et la flexibilité d’image. Par rapport aux capteurs
d’images CCD, les capteurs d’images CMOS ont un courant de noirceur élevé et
une plus grande quantité de bruit schéma fixe. Un grand courant de noirceur
dans la matrice de photo-diodes d’un imageur CMOS conduit à un bruit élevé, un
faible rapport signal sur bruit (SNR), une non-uniformité et une faible
évolutivité. Il limite également la plage dynamique d’un capteur. Ce projet
propose d’améliorer la qualité du capteur d’image par la méthode
d’échantillonnage différentiel d’indemnisation du courant de noirceur du pixel
actif CMOS. L’objectif est de concevoir un circuit de pixel de petite taille.
Le circuit de pixel est lié à un circuit de lecture de colonne afin de copier
la réponse en tension du photo-détecteur sur le pixel et sur la colonne pendant
la séquence de lecture de pixel, sans modifier le signal. Un prototype de
réseau de capteurs sera fabriqué pour prouver la fonctionnalité du circuit.
PROBLÉMATIQUE:
L’objectif principal de ce projet est de
concevoir le circuit de commande assurant de traiter les signaux analogiques
d’une matrice de pixels et de fournir une méthode pour la détection de mode de
la réponse du capteur d’image. Comme le courant de noirceur limite
considérablement la performance d’un capteur d’image en terme de dynamique et de
sensibilité, la nouvelle architecture CMOS APS réduit et compense le courant de
noirceur en ayant une bonne gamme dynamique et une excellente linéarité.
MÉTHODOLOGIE:
Une technique de compensation de courant de
noirce de capteurs d’images pour des situations de faible luminosité est
présentée dans ce travail. Un circuit amplificateur capacitif différentiel
(CTIA) multi-branche est proposé pour compenser l’effet du courant de noirceur
des capteurs d’image CMOS. Afin d’obtenir une application de détection de
faible niveau, un interrupteur de type T avec un faible courant de fuite est
utilisé. La nouvelle configuration de l’amplificateur différentiel multi-input
à sorties multiples présente l’avantage d’une gestion rigoureuse des courants
sub-femto Ampère de la photodiode.
RÉSULTATS:
Ce projet a débuté à l’hiver 2012. Une haute
sensibilité de pixel actif du capteur d’image CMOS avec une bonne gamme
dynamique a été développée en utilisant le procédé TSMC CMOS 0.18µm.
MONTEIRO, Fellipe |
DIPLÔME: M.Sc.A |
TITRE:
Automatisation du processus de caractérisation
de la consommation de puissance pour l’estimation au niveau modèle
transactionnel.
RÉSUMÉ:
Ce travail propose une
méthodologie capable de caractériser automatiquement la consommation de
puissance des processeurs configurable de type « soft-processors » et de
générer un modèle efficace pour l’estimation de l’énergie consommée au niveau
système. À l'aide de ce modèle, une étude comparative entre trois techniques
d’estimation est présentée.
PROBLÉMATIQUE:
De nos jours, la consommation
de puissance est une contrainte clé et une métrique de performance essentielle
lors du design des systèmes numériques. La dissipation de chaleur excessive sur
les circuits intégrés diminue leurs performances. Également, plus que jamais,
nous avons le besoin d’augmenter le temps de vie des batteries de produits
électroniques portables. Avec les techniques de design classiques, RTL
(«Register Tranfer Level»), une estimation de puissance précise est
possible seulement aux dernières étapes du processus de développement.
Pour remédier à cette problématique, on a récemment proposé dans la littérature
de hausser le niveau d’abstraction de la conception de systèmes embarqués à
l’aide de méthodologie de niveau système: «Electronic System Level» (ESL). Dans
cette perspective, ce travail propose une méthodologie pour permettre
l’estimation de puissance des processeurs au niveau système.
MÉTHODOLOGIE:
Les étapes
à suivre sont les suivantes:
Ø Établir un moyen d’automatiser le
processus de caractérisation des processeurs
configurable de type « soft-processors ». Ce processus existe déjà,
toutefois, il est essentiellement manuel.
Ø Implémenter l’automatisation du
processus.
Ø Évaluer la précision de la
caractérisation obtenue en ayant comme modèle de référence la consommation
donnée par l’outil de Xilinx, Xpower.
RÉSULTATS:
Les résultats de cinq
programmes tests montrent une estimation de puissance 8000 fois plus rapide que
les techniques d’estimation conventionnelles et une erreur quadratique moyenne
de seulement 3.98 % pour le processeur LEON3 et de 10.69 % pour le
processeur Microblaze.
MORADI, Arash |
DIPLÔME: Ph.D. |
Émetteur de faible puissance et haut débit de
données dédié aux microsystèmes biomédicaux implantables.
RÉSUMÉ:
Dans ce
travail, le chemin de transmission d’un émetteur-récepteur sans fil de
fréquence radio est mis en œuvre pour
l’interface sans fil de capteurs biomédicaux avec une consommation d’énergie
ultra faible. Un nouveau schéma de modulation Frequency Shift Keying (FSK) est
proposé et mis en oeuvre utilisant les Technologies CMOS 90nm de TSMC et de 130
nm d’IBM de réduire la consommation d’énergie et d’améliorer le début de
données. L’émetteur RF opère en Amérique du Nord entre 902-928 MHz bande ISM
fournissant un débit élevé de données pour les transmettre à un récepteur
externe sur une courte distance. L’émetteur est ciblé pour consommer un courant
très faible tiré à partir d’une tension d’alimentation de 1 ou 1.2V.
PROBLÉMATIQUE:
Le comportement du corps de certains
patients atteints de maladies spécifiques du cerveau, telles que l’épilepsie, a
besoin d’être surveillé en permanence. Pour ce faire, un réseau de capteurs est
nécessaire pour détecter et produire les données associées. Les données
générées doivent être transmises à un récepteur externe pour une analyse
ultérieure. En effet, en utilisant de tels capteurs, les patients n’ont pas
besoin d’être connectés à une machine pendant une longue période. Les
émetteurs-récepteurs RF comme la partie communication des réseaux de capteurs
sans fil sont nécessaires dans de nombreuses applications biomédicales
comportant des dispositifs implantables. Ces dispositifs implantés doivent
consommer une très faible puissance, tout en maintenant un haut débit de
données de communication, sinon, la batterie de ces appareils doit être
rechargée fréquemment dans des cabinets médicaux. En général, l’objectif est de
maintenir l’émetteur-récepteur implantable aussi simple et d’aussi faible
consommation de puissance que possible. En contrepartie, le récepteur externe
peut être plus compliqué.
MÉTHODOLOGIE:
Dans cette recherche, nous proposons
de concevoir et de mettre en oeuvre un émetteur-récepteur RF à faible puissance
pour l’interface sans fil de capteurs biomédicaux. L’émetteur-récepteur
cible doit également répondre à d’autres spécifications, telles que l’intégrabilité
à faible coût et sa simplicité. Employer la technique proposée pour
moduler la transmission de données permettra de réduire la consommation
électrique totale. Mettre en oeuvre la conception nanométrique utilisant un
procédé CMOS ainsi que la conception technique du circuit analogique permet
d’atteindre les performances souhaitées. En utilisant des composants passifs
pour mettre en œuvre, la voie de transmission permet également de consommer une
très faible puissance. En outre, une partie de la recherche sera concentrée sur les blocs
gourmands en énergie pour tenter de les mettre en oeuvre avec de nouvelles
techniques de conception de circuits.
RÉSULTATS:
La section émetteur de faible
puissance et de données à haut débit sans fil dans l’émetteur-récepteur de
fonctionnant dans la bande 902-928 MHz) est conçue et mise en oeuvre dans les
procédés 90nm et 130nm CMOS. Grâce à l’emploi de composants de faible puissance
et de la technique de modulation de fréquence, l’émetteur proposé a réduit la consommation
d’énergie totale. Sur la base des structures proposées et les réalisations
connexes, trois articles scientifiques ont été publiés à des conférences de
l’IEEE. Les résultats des mesures montrent la fonctionnalité et l’efficacité de
l’émetteur fabriqué. En résumé, l’émetteur proposé est capable de communiquer
avec plus de 1 Mb/s de débit de données tout en ne consommant que peu de
puissance.
MOURET,
Geoffroy
DIPLÔME: M.Sc.A.
TITRE:
Approche
statistique de l’économie d’énergie pour animât.
RÉSUMÉ:
L’Ecole Polytechnique de Montréal
dispose de plusieurs unités mobiles intelligentes (animât) équipées de capteurs
(infrarouges, accéléromètres, intensité lumineuse, intensité électrique...)
leur permettant de percevoir leur environnement interne comme externe. Les
applications des mini-drones sont nombreuses: établissement d'un réseau de
communication d'urgence, cartographie d’un environnement inconnu, recherche de
survivants lors de catastrophes naturelles, poursuite d’individus, etc. Les
robots doivent en permanence calculer, communiquer, analyser, et ce, au
détriment de leurs réserves en énergie. L’idée ici est de déterminer les
ressources superflues pour la tâche en cours à l’aide de méthodes statistiques
de sélection de variables.
PROBLÉMATIQUE:
Les algorithmes de «machine
learning» actuels sont bien souvent empiriques et dans certains cas, sans
justifications théoriques. Dans le cas des recherches en statistiques, on
observe le phénomène inverse avec des algorithmes bénéficiant d’arguments
mathématiques solides, mais déconnectés des problématiques physiques de certains
problèmes. On souhaite développer certaines de ces méthodes et les valider par
simulation pour comparer leurs performances vis-à-vis des approches classiques
du domaine. L’objectif est d’obtenir des algorithmes valables pouvant utiliser les
animâts comme plate-forme de test pour de futurs projets.
MÉTHODOLOGIE:
La première partie du projet a été
menée en partenariat avec le professeur Partovinia du département de génie
industriel et de mathématiques appliquées. Il s’agit d’une généralisation de la
pénalisation de type «Elastic Net» pour la sélection de variables La
deuxième partie est en cours de finition sur la méthode de clustering «no-means
algorithm»qui est une optimisation de la méthode de «clustering k-means». Ce
deuxième travail sera présenté au congrès annuel de la Société Statistiques du
Canada et soumis à une revue scientifique pour publication.
RÉSULTATS:
Nous sommes capables de trouver les
paramètres de pénalisation optimaux de la régression «Elastic Net» pour
les cas particuliers des régressions sur les valeurs estimées ou sur les
paramètres en utilisant une approche bayésienne pour la norme quadratique.
L’algorithme «no-means» permet un clustering similaire à celui effectué par
«k-means», mais en s’affranchissant du problème des valeurs initiales. La
complexité en temps de calcul est la même que «k-means», mais reste globalement
plus lente. Des optimisations sont à réaliser à ce niveau.
NABOVATI, Ghazal
DIPLÔME: Ph.D.
TITRE:
Biocapteur sur puce implantable pour
la surveillance de la taille de tumeurs
RÉSUMÉ:
Dans ce projet, nous développons un
biocapteur pour la surveillance des cellules à haute résolution et grande
précision. Chaque pixel de détection est constitué d’un capteur de pH et d’un
capteur capacitif. Le microchip est un système de télémétrie de données sans
fil et est conçu pour envoyer les données enregistrées à l’extérieur du corps
du patient. Une interface est aussi conçue pour envoyer les données à
l’ordinateur pour le stockage et pour analyses subséquentes.
PROBLÉMATIQUE:
Malgré de grands progrès au niveau
de l’instrumentation biomédicale, il n’existe pas d’outil pour la surveillance
continue des activités de croissance tumorale. Un réseau de capteurs
bio-implantables peut offrir plusieurs avantages pour détecter les facteurs
biologiques (par exemple, la prolifération) ou chimiques (par exemple, le pH ou
le taux d’oxygène) pour l’étude du cancer, ainsi que le contrôle de la
chimiothérapie du cancer. Ce projet conduit à un nouvel outil et un protocole
pour une meilleure compréhension de la biologie sous-jacente au cancer ainsi
que la chimiothérapie anticancéreuse améliorée.
MÉTHODOLOGIE:
La mise en œuvre de ce projet de
recherche sera divisée en trois phases principales:
Ø
Conception des capteurs
microélectroniques (interface de lecture, convertisseur analogique-numérique);
Ø
Microfluidique et
emballage;
Ø
Conception et mise en
œuvre d’un système de télémétrie sans fil.
RÉSULTATS :
La puce est fabriquée en utilisant
la technologie 0.35µm TSMC. La première étape de ces expériences est réalisée
par la mise en culture des lignées cellulaires de cancer sur puce CMOS. Le
capteur a fourni des informations en temps réel sur le taux de prolifération
des cellules et également la variation de pH du milieu de culture cellulaire.
NAJAPOUR FOROUSHANI,
Armin
DIPLÔME: M.Sc.A.
TITRE:
Performance des systèmes basés sur le
classificateur dégradé XCS avec opérateur de précision dans les problèmes
d’animât
RÉSUMÉ:
Le problème de l’animât, qui est le problème
d’un agent qui tente de survivre dans un environnement de labyrinthe avec des
récompenses distribuées, sont considérés dans cette thèse. L’animât utilise des
systèmes de classificateurs XCS qui permettent à son cerveau d’apprendre dans
ce type d’environnements. La complexité de l’environnement dépend de la
distribution des objets qui le composent et XCS sera modifié par l’ajout de
nouveaux mécanismes pour être en mesure d’apprendre dans des environnements
plus complexes.
PROBLÉMATIQUE:
L’environnement qui est considéré dans cette
thèse est un environnement de labyrinthe composé d’objets alimentaires et
d’obstacles nuisant à la collecte de ces récompenses. Donc, nous sommes soumis
à un problème de l’apprentissage par renforcement. L’animât apprend à atteindre
la nourriture en explorant d'abord l’environnement et en apprenant à se
procurer une nourriture aussi vite que possible. Deux capacités de base
des animâts sont la détection et l’action qui sont reliés par une architecture
de commande qui donne la possibilité de comportement adaptatif à l’animât. Dans
cette thèse, les environnements sont un labyrinthe où l’animât est entouré de
huit cellules. Pour les animâts, huit détecteurs sont considérés pour les
objets disponibles à chaque endroit.
MÉTHODOLOGIE:
La méthode qui est considérée est de concevoir
l’architecture de contrôle de l’animât, pour lui permettre d’apprendre dans
l’environnement pour trouver de la nourriture et survivre, basée sur le système
classificateur XCS. XCS est un algorithme adaptatif qui est une combinaison de
Q-apprentissage et d’un algorithme génétique qui inclut une population de
classificateurs. Les classificateurs sont des règles sensori-action qui sont équipées de trois paramètres de prédiction, «erreur de
prédiction» et «fitness». Chacun de ces paramètres est mis à jour en fonction
de la récompense que l’animât reçoit. Les règles sont produites par le
mécanisme de l’algorithme génétique. Pour certains types d’environnement, XCS
ne parvient pas à apprendre à atteindre la nourriture aussi vite que possible.
Pour résoudre ce problème, deux mécanismes lui sont ajoutés: spécifier un
opérateur comme algorithme génétique et un mécanisme de descente de gradient
qui est utilisé dans la procédure de mise à jour.
RÉSULTATS:
Les résultats montrent que dans les
environnements XCS woods 1 et woods 2 seuls, l’animât fonctionne très bien et
peut apprendre et le nombre d’étapes à la nourriture diminue et se stabilise
après quelques itérations, mais que, dans des environnements plus complexes
tels que maze5, la précision de l’opérateur et le mécanisme de descente de
gradient sont nécessaires pour être permettre à l’animât d’apprendre.
.
NISHI,
Romain
DIPLÔME: M.Sc.A.
TITRE:
Développement d’un algorithme d’allocation
«max-min fair» de bande-passante dans un réseau de communications multi-trajet.
RÉSUMÉ:
Internet ou les réseaux de communication sans
fil tel que pour les réseaux de téléphones cellulaires sont aujourd’hui
considérés comme des dus par la société qui en font usage constamment dans
leurs vies personnelle et professionnelle. Ces réseaux qui sont de plus en plus
grande envergure nécessitent cependant des ressources croissantes capables de
gérer le trafic des données. Bien que certaines fonctions soient aujourd’hui
implémentées dans des circuits intégrés spécialisés, l’utilisation d’autres
plateformes plus flexibles telles que des serveurs semble être l’avenir de
cette technologie. Le présent projet vise ainsi à développer un algorithme
capable de fournir des résultats optimaux ou quasi optimaux pour un problème
d’allocation de bande-passante dans des réseaux multi-chemins de grande
envergure sur une plateforme logicielle et dans un temps limité.
PROBLÉMATIQUE:
Bien qu’il existe des algorithmes bien connus
aujourd’hui pour l’allocation de bande-passante, ces derniers sont, soit trop
inefficace pour réaliser les calculs dans les temps impartis sur plateforme
logicielle, soit inadaptés pour les réseaux de type multi-trajet. Dans le but
d’obtenir une telle performance, l’algorithme développé doit permettre non
seulement d’obtenir un partage de bande-passante optimal ou quasi-optimal du
point de vue «max-min fair», mais aussi de trouver ces résultats dans un temps
réduit possiblement en prenant avantage de processeurs multi-cœur et de
coprocesseurs GPU.
MÉTHODOLOGIE:
La première phase de ce projet consiste à
étudier l’état de l’art concernant les méthodes d’allocation de bande-passante,
et de développer un modèle d’allocation satisfaisant les contraintes du
problème. Dans une deuxième phase, les algorithmes connus seront implémentés
selon les modèles développés afin de servir de référence pour les futurs
travaux. Par la suite, un nouvel algorithme satisfaisant les contraintes
d’équité de partage de la bande-passante sera développé et testé. Enfin,
l’algorithme sera implémenté, testé et optimisé afin de satisfaire aux
contraintes temporelles du problème. L’algorithme pourra potentiellement être
parallélisé sur processeur multi-cœur et GPU.
RÉSULTATS:
Un algorithme basé sur l’algorithme dit
«Progressive filling» a été développé et implémenté. Celui-ci présente des
résultats encourageants au niveau de l’équité de la bande-passante allouée aux
différents flux de données. L’algorithme est théoriquement parallélisable à
différents niveaux et son optimisation 3 est présentement en cours.
NSAME,
Pascal
DIPLÔME: Ph.D.
TITRE:
Techniques
et méthodes de conception et de vérification des systèmes cognitifs intégrés
sur puces.
RÉSUMÉ:
Ce projet vise
l’élaboration de techniques et méthodes avant-gardistes de conception et de
vérification des circuits intégrés cognitifs sur puces. La complexité
grandissante des systèmes de type System-on-Chip (SoC) impose une utilisation
efficace des ressources matérielles et logicielles centrées sur des méthodes de
conception qui complémente la synthèse logique avec les techniques d’adaptation
en temps-réel grâce à l’accès aux réseaux mobiles et hybrides. Toutefois, à
cause de la dépendance entre les représentations au niveau comportemental, RTL
et portes, et leur impact sur le partitionnement matériel/logiciel, la
performance, la dissipation de puissance et surtout l’effort de vérification,
il est nécessaire de développer une approche intégrée à la méthode de
conception elle-même. L’objectif du projet consiste à étudier les interfaces
matériel-matériel, matériel-logiciel et matériel-utilisateur régissant
l’intégration des systèmes cognitifs afin de proposer des modèles d’interface
améliorés et d’explorer les architectures VLSI intégrées qui permettent
d’implanter efficacement une synchronisation non-bloquante pour des systèmes
complexes multiprogrammés et à mémoire partagée dans un contexte de traitement
de données à très haut débit.
PROBLÉMATIQUE:
La capacité
d’intégration offerte par la nanotechnologie rend l’implantation des systèmes
de type SoC très intéressante. Toutefois, les besoins en vérification croissent
de façon exponentielle. Cette capacité d’intégration élevée impose au
concepteur un niveau de productivité extrêmement élevé. En effet, les besoins
des applications en temps réel, l’augmentation constante du niveau
d’intégration matérielle/logicielle, du parallélisme au niveau instruction et
de la complexité de la hiérarchie de mémoires intégrées et partagées conduisent
à un risque augmentation de la dégradation de performance effective due à une
synchronisation bloquante entre agents communicants en temps-réel. Ceci rend
inadéquates les méthodes traditionnelles de conception et de vérification
basées sur la simulation et la synthèse logique seulement. Un défi majeur
consiste à développer une méthodologie qui facilite le travail du concepteur
dans un environnement de design, où les outils CAD/CAE et la technologie de
fabrication sont en constante évolution et où les bibliothèques de composants
deviennent de plus en plus complexes.
MÉTHODOLOGIE:
Étude comparative
de l’état-de-art en matière de méthode de conception et vérification des
systèmes cognitifs intégrés sur puce Définition et spécification d’une
architecture VLSI avant-gardiste basée sur l’utilisation efficace des tissus de
calcul adaptatifs. Validation du prototype réalisé.
RÉSULTATS:
Une nouvelle
méthode de conception basée sur une technique adaptative de la fiabilité basée
sur une optimisation à deux phases a été proposée. La première phase identifie
les opérations asynchrones implémentées à l’aide d’une librairie de tissus de
calcul adaptatifs. La deuxième phase minimise la consommation d’énergie afin de
satisfaire la contrainte de température moyenne. Deux problèmes d’optimisation
ont été formulés à l’aide de la technique de programmation linéaire entière
validée avec les applications HEVC/H.265. Des articles de journaux et brevets
sont en préparation.
RIVARD
GIRARD,
Simon
DIPLÔME: M.Sc.A.
TITRE:
Filtrage de nuages de points désorganisés par fovéation non-linéaire à
multiples fovéas
RÉSUMÉ:
Ce projet tente d’améliorer les performances d’algorithmes de
synchronisation de nuages de points basés sur la technique ICP en minimisant
leur vitesse d’exécution et en maximisant leur précision. Pour ce faire un
filtre basé sur le comportement neurobiologique de l’oeil, bien connu dans le
domaine du traitement d’image, sera adapté à des vecteurs de données 3D
désorganisés (nuages de points dont l’indice de position d’un point dans le
vecteur n’est pas relié au positionnement du point dans l’espace comme ce
serait le cas pour une image).
PROBLÉMATIQUE:
La performance des algorithmes de synchronisation ICP dépendent en majeure
partie de la taille et de la répartition dans l’espace des deux nuages de
points qui devront être synchronisés. En réduisant la taille de ces nuages à
l’aide de filtres, la vitesse d’exécution des algorithmes sera nécessairement
améliorée, mais la précision de la synchronisation pourrait en être affectée.
De plus, plus un nuage est réparti dans l'espace, plus l’algorithme aura
tendance à converger rapidement vers une solution précise, surtout lorsque des
objets ou le senseur lui-même causent de l’obstruction dans la scène créant des
incohérences entre deux nuages à synchroniser qui se suivent temporellement.
Ainsi, dû à la nature des algorithmes ICP, un bon filtre pour ceux-ci se doit
de: réduire au maximum le nombre de données 3D; tout en maintenant une bonne
distribution des points dans l’espace.
Deux filtres bien connus dans la littérature sont le sous-échantillonnage
uniforme et la fovéation. Le premier répond bien au critère (2), mais pourrait
garder plus de points que nécessaire. Le deuxième répond bien au critère (1),
mais localise les points retenus à un seul endroit (autour de la fovéa). Ainsi,
une fovéation à plusieurs fovéas serait un bon compromis entre les deux
méthodes. D'autre part, la fovéation a toujours été appliquée aux données 2D,
telles que des images, qui nécessitent que l’indice de position d’un point dans
son conteneur soit un indicateur de la position du point dans l’espace. Ainsi,
lorsqu’on veut l’utiliser sur des données 3D désorganisées (qui ne respectent
donc pas la règle de l’indice de position du point dans son conteneur), il faut
d’abord convertir le nuage de point désorganisé en une image de profondeur
(nuage de points organisés) ce qui peut s’avérer une opération lente pour des
senseurs qui ne supportent pas la création de telles images. Certains travaux
ont pu transférer certaines techniques de la fovéation d’images vers les nuages
de points désorganisés telle la fovéation à simple fovéa et à interpolation
linéaire dans le cadre de la détection d’objets. Ainsi, dans le cadre de ce
projet, on tentera d’adapter d’autres techniques de fovéation d’images à la
fovéation de nuages de points désorganisés. Dans l’optique d’améliorer les
algorithmes ICP, il s’gira d’adapter la fovéation à multiples fovéas. De plus,
un sous-échantillonnage non-linéaire y sera appliqué afin de réduire davantage
le nombre de point final.
MÉTHODOLOGIE:
Acquisition et prétraitement d'une base de données de nuages de points pour
les tests subséquents. Implémentation de deux variantes d’algorithmes ICP:
«Generalized ICP» et «levenberg-marquardt optimized ICP». Implémentation de
quatre filtres: sous-échantillonnage uniforme, fovéation à simple fovéa
classique, fovéation à deux fovéas et fovéation à deux fovéas avec
sous-échangillonnage non-linéaire. Pour chaque couple filtre, algorithme ICP,
récolter le temps d’exécution et l’indice de précision du filtre ainsi que la
synchronisation pour chaque couple de nuages qui se suivent temporellement dans
la base de données. À l’aide de tests d’hypothèses statistiques Mann-Whitney U,
valider qu’une réduction de la vitesse de la synchronisation à l’aide du filtre
développé n’affecte pas la précision de l’algorithme, comparativement aux
autres filtres présents dans la littérature.
RÉSULTATS:
Pour l’instant, le filtre de fovéation classique et celui proposé ont été
appliqués à l’algorithme «Generalized ICP». Le filtre proposé dans ce projet a
statistiquement réduit la vitesse d’exécution tout en n’influençant pas
significativement la précision finale de la synchronisation, en comparaison au
filtre de fovéation classique.
SALAM, Muhammad Tariqus |
DIPLÔME: Ph.D. |
TITRE:
Microsystème biomédical implantable pour le
traitement de l’épilepsie.
RÉSUMÉ:
Environ 50 millions de personnes dans le monde
souffrent d’épilepsie, dont un tiers sont réfractaires aux médicaments
antiépileptiques. Un nombre de ces derniers ne sont pas de bons candidats à la
chirurgie ou ont continués à avoir des crises malgré la chirurgie. Ainsi, de
nouvelles options thérapeutiques pour l’épilepsie réfractaire sont nécessaires.
Un stimulateur cortical approprié pourrait être un mode plus sûr et efficace de
traitement alternatif pour l’épilepsie réfractaire. L’idée de ce traitement est
d’identifier le début des crises et de bien stimuler la zone épileptogène de
façon à supprimer une saisie à venir. Par conséquent, une faible puissance de
détection de début des crises est nécessaire et elle doit être très sensible
aux décharges anormales spécifiques électrographiques.
PROBLÉMATIQUE:
De nombreux modèles mathématiques ont été
développés pour détecter les crises, dont l’EEG intracérébral. Les modèles de
base ont montré de meilleures performances que l’EEG de surface. Ces modèles
ont été traduits en filtres passe-bande et en logiciels qui sont utiles pour
les applications à court terme. En outre, l’amplification du signal neuronal
est un enjeu crucial, parce que la performance relativement faible en termes de
bruit de la technologie CMOS provoque plusieurs types de bruits indésirables,
module le signal et diminue le rapport signal/bruit. Beaucoup de méthodes de
pré amplification des signaux neuronaux ont été proposées, et certaines ont
démontré des capacités impressionnantes à amplifier le potentiel de très faible
amplitude-action. Il existe une variabilité dans le modèle de saisie en
fonction de la localisation, de l’étiologie de la saisie et le placement des
électrodes intracrâniennes. En outre, la détection des rythmes biologiques peut
causer de fausses alarmes.
MÉTHODOLOGIE:
Le détecteur de crise épileptique à faible
puissance a un gain d’amplification réglable de sorte qu’il puisse mettre
l’accent sur le niveau d’amplitude d’intérêt. Aussi les tensions de seuil
variables d’un détecteur de niveau de tension délimitent les emplacements des
signaux détectés et extraient les informations de la fréquence ainsi que
l’augmentation progressive de l’amplitude. Permettre la syntonisation de détecteur haute fréquence facilite la détection précise de
la fréquence des crises d’un patient. L’effet global du bruit et la
consommation électrique de l’appareil sont réduits. Cette détection est censée
être très fiable dans un dispositif implantable sans risquer de fausses
détections des rythmes physiologiques (sommeil de broche). L’algorithme
propose la saisie de détection et est applicable à tous les patients qui ont
subi des crises fréquentes caractérisées par une augmentation progressive de la
basse tension en pleine activité sur les enregistrements EEG intracérébraux.
RÉSULTATS:
Sept patients ont subi une étude intracrânienne pour mieux délimiter la zone épileptogène. Plusieurs saisies ont été enregistrées et elles étaient toutes originaires de l’hippocampe droit et avec diffusion au néocortex latéral temporal et à l’insula. Les «on sets» saisis ont été marqués par un épileptologue (DKN). Le début des crises a été caractérisé par une activité tonique initiale basse tension alpha dans l’évolution de dopage rythmique. Le signal enregistré lors d’une saisie a été introduit dans le CLNS pour tester la performance. Le CLNS utilise les propriétés de l’iEEG mesuré pour déclencher une suppression de la crise bi phasique par stimulation électrique dès l’apparition de la crise. La performance de la CLNS testée chez un patient souffrant d’épilepsie réfractaire a montré une détection précoce de la saisie à la stimulation sensible ultérieure. Une telle stimulation du foyer épileptogène permet d’espérer perturber la progression, la saisie et la propagation dans les régions adjacentes. Des stimulations préliminaires indiquent que la performance de ces dispositifs est satisfaisante. La validation expérimentale est réalisée.
SHARAFI, Azadeh |
DIPLÔME: Ph.D. |
TITRE:
Conception et mise en œuvre d'un micro-capteur
non attaché pour la détection précoce de tumeur du sein.
RÉSUMÉ:
Selon l'Agence
internationale de recherche sur le cancer (CIRC), avec 1.38 millions de
nouveaux cas de cancer et 485 décès en 2008, le cancer du sein est le cancer le
plus fréquent chez les femmes. Alors, il est nécessaire de développer de
nouveaux outils pour diagnostiquer et traiter ce genre de cancer. En
outre, un risque de récurrence du cancer se pose après le traitement.
Dans un tel cas, il est indispensable de détecter la tumeur le plus rapidement
possible. Le moyen le plus efficace pour détecter les cellules tumorales est
l’imagerie par résonance magnétique (IRM). Cependant, cette technique n'est pas
en mesure de détecter de petites tumeurs en développement (<5 mm). Par
conséquent, il est nécessaire de trouver de nouvelles méthodes pour détecter
les tumeurs de moins de 5 mm. Des études montrent que, lorsque la tumeur
commence à grandir, certains paramètres micro-environnementaux, tel que le
niveau de pH, changent. Il est possible de détecter la tumeur à son stade
précoce par la mesure de ces paramètres en les comparants aux valeurs moyennes à
l’aide d’un micro-capteur. Les contraintes sur la taille, l'alimentation
et le système de communication entre le micro-capteur et le monde extérieur
sont les questions les plus importantes qui devraient être abordées dans cette
solution.
PROBLÉMATIQUE:
Comment
détecter la récurrence du cancer lorsque la tumeur est inférieure à 5 mm?
MÉTHODOLOGIE:
Ø Concevoir un micro-capteur pour détecter une
tumeur en développement par mesure de variations de pH.
Ø Trouver la taille minimale détectable de la tumeur par
le micro-capteur.
Ø Trouver une résolution minimum de détection de pH par
le micro-capteur.
Ø Proposer un nouveau système de communication sans fil
entre le micro-capteur et le monde extérieur.
Ø Proposer un nouveau bloc d'alimentation pour le
micro-capteur.
Ø Validation du micro-capteur à travers des expériences in-vitro.
RÉSULTATS:
Ø HSOC: en surveillant les variations de pH
à l’aide de micro-capteur conçu, il est possible de détecter de nouvelles
tumeurs en développement qui ne sont pas détectables par les techniques
d’imagerie clinique actuelles;
Ø Justification de l’originalité: la
visualisation des tumeurs de petite taille (<5mm) reste au-delà de la
capacité des techniques cliniques actuelles;
Ø Réfutabilité : l’hypothèse serait
réfutée si la taille de la tumeur plus petite détectée par le micro-capteur
conçu est plus de 5 mm dans l’une des dimensions spatiales.
SIADJINE NJINOWA, Marcel
|
DIPLÔME: Ph.D. |
TITRE:
Conception
d’un transmetteur de faible consommation de puissance et applications dans les
réseaux WBAN
RÉSUMÉ:
Ce travail de recherche porte sur la
réduction de la consommation de puissance dans un transmetteur utilisé dans les
réseaux sans fil sur la personne humaine (WBAN). Ces réseaux sont essentiellement
constitués de capteurs et d’actuateurs disposés sur ou à proximité du corps
humain pour mesurer différents paramètres physiologiques en différents endroits
du corps humain. Les mesures effectuées sont remontées par voie radio vers une
unité déportée laquelle va les traiter, les renvoyer, prendre des décisions,
alerter, les enregistrer, etc. Afin d’améliorer les performances de ces
réseaux, de grands efforts sont mis à contribution pour les rendre totalement
intégrables sur puce. Ceci a pour effet de minimiser leurs tailles et leurs
prix. La consommation de puissance dans ces réseaux sans fil doit aussi être
minimisée dans l’optique d’améliorer la durée de vie des batteries qui assurent
leur alimentation. Dans un premier temps, nous nous intéresserons à la
consommation de puissance du générateur d’horloge dans ces réseaux. Nous
proposerons des architectures d’oscillateur consommant moins de puissance et
des techniques de réduction de la puissance et de gigue. Le choix de la
focalisation de notre attention sur la réduction de l’énergie de l’oscillateur
est justifié par le fait que 50% de l’énergie totale du synthétiseur d’horloge
est consommée par l’oscillateur. Dans un second temps, notre attention sera
portée sur la réduction de la consommation totale de puissance du transmetteur.
Selon l’architecture, la consommation de puissance de l’amplificateur de
puissance dans ces réseaux varie entre 40 et 60%.
PROBLÉMATIQUE:
Les principales caractéristiques des WBAN sont
leurs fiabilités, tailles et faibles consommations de puissance étant donné que
leur source d’énergie est généralement limitée. Comme le bloc de génération
d’horloge joue un rôle capital dans ces réseaux, il est nécessaire d’optimiser
sa consommation de puissance et de son bruit de phase, ce que nous visons dans
ce projet de recherche. Par ailleurs, nous nous intéresserons aussi à la
réduction de la consommation de puissance du transmetteur en entier. En
d’autres termes comment concevoir un système fiable, totalement intégrable et consommant
le mois de puissance possible?
MÉTHODOLOGIE:
Dans un premier temps, nous proposerons de
nouvelles cellules à délai consommant moins de puissance et qui serviront à la
conception de l’oscillateur faible puissance. La conception et la simulation de
cet oscillateur faible puissance se fait par le biais de l’outil Cadence. Nous
proposerons une technique de réduction de la gigue de phase
Dans un second temps, nous nous intéresserons à
l’augmentation de l’efficacité de notre transmetteur. Cette efficacité est
définie comme le rapport de la puissance transmise et de la consommation totale
de puissance du transmetteur. Étant donné qu’environ 60% de puissance est
dissipée par l’amplificateur de puissance. Nous proposerons de nouvelles
architectures de transmetteur qui tiendront compte de cette réalité.
RÉSULTATS:
À ce stade de nos travaux de recherche, nous
avons déjà conçu un convertisseur de donnée DAC utilisant seulement des
cellules normalisées. La technique de réduction de gigue utilise ce DAC et une
application de cette technique dans un générateur d’horloge, le FRPS, montre
bien que la gigue initiale sur le FRPS a été réduite de moitié. Ces deux
contributions ont fait l’objet de deux articles de conférence. Nous proposons
aussi une nouvelle cellule à délai à faible consommation et son application
dans un oscillateur. Ce qui fait présentement l’objet d’un article soumis.
D’autres résultats sont également attendus, à savoir un transmetteur simple et
efficace.
STIMPFLING, Thibaut |
DIPLÔME: M.Sc.A. |
TITRE:
Optimisation
d'un algorithme de classification de paquets dans le contexte d'OpenFlow en vue
d'une implémentation matérielle.
RÉSUMÉ:
Les opérateurs de télécommunication (internet,
téléphonie) font face à une explosion de l’utilisation en bande passante par
leurs clients. En effet, les utilisateurs ont changé leurs habitudes de
consommation pour un usage nomade. Désormais, les consommateurs veulent pouvoir
accéder à Internet, à partir d’un Smartphone, ordinateur, tablette ou
télévision. La quantité de données échangées n’a cessé ainsi d’augmenter,
poussant les fournisseurs d’accès à mettre en place des stratégies
d’optimisation de l’utilisation des ressources de leur réseau. En effet, le
déploiement d’une nouvelle architecture (fibre optique) entraine des couts très
élevés. Ainsi, les opérateurs cherchent à identifier et traiter de manière
optimale chaque type de trafic passant sur leurs liens. À cet égard, la
classification de paquets (c’est-à-dire l’identification du trafic) doit se
faire à une granularité très fine. Faisant face à un nouveau contexte, les
algorithmes de classification de paquets doivent donc être repensés et
optimisés.
PROBLÉMATIQUE:
Le problème considéré porte sur l’isolation
entre chacun des opérateurs partageant l’équipement physique. Il s’agit en
effet de garantir à chacun d’eux des ressources dédiées d’une part, mais aussi
la capacité à utiliser des ressources sous-utilisées par certains autres
opérateurs. On comprend ainsi que ce partage des ressources s’effectue de
manière dynamique.
MÉTHODOLOGIE:
La
méthodologie suivante sera suivie :
Ø Adaptation de l'algorithme EffiCuts au contexte
d’OpenFlow
Ø Identification des causes de la
sous-performance de l’algorithme
Ø Proposition de plusieurs optimisations
algorithmiques préliminaires
Ø Conception d’un nouvel algorithme
Ø Proposition d’une architecture matérielle
RÉSULTATS:
Suite à la phase de test, plusieurs
optimisations ont été intégrées et permettent dans un premier temps de diminuer
la taille de la structure de donnée générée par l'algorithme de 35% tout en
réduisant le nombre moyen d'accès mémoire par 2. Par ailleurs, les modifications
apportées ont été réalisées dans le but de réaliser une implémentation
matérielle de l’algorithme. La deuxième phase consistait à désigner un
algorithme optimisé pour le contexte d’OpenFlow et permet de diminuer le nombre
d’accès mémoire par un facteur 3 en moyenne.
TABOUBI, Mohamed DIPLÔME: M.Sc.A.
TITRE:
Localisation des terminaux mobiles dans les
environnements intérieurs en utilisant la technologie Wi-Fi.
RÉSUMÉ:
En 2013, notre travail est divisé en quatre
grands volets. Le premier volet concerne l’amélioration des résultats de la
méthode de «Fingerprinting» aboutie en 2012. Le deuxième volet concerne
l’établissement théorique des équations qi simulent les données du réseau afin
de prévoir la valeur théorique de la puissance du signal Wifi reçu de chaque
point d’accès du bâtiment. Le troisième volet concerne l’étude théorique de la
méthode de multi altération. Finalement, le quatrième volet consiste à la
simulation des résultats.
PROBLÉMATIQUE:
Trois problématiques sont notées:
Ø Les résultats obtenus auparavant
prennent en considération tous les points d’accès même si ces derniers sont défectueux
ou affectés par l’environnement. Il serait logique de ne pas considérer ces
points d’accès dans nos calculs.
Ø La méthode de Fingerprinting demande
un grand travail de collecte de données. Il sera logique de réduire ce travail
en arrivant à simuler les données ou d’utiliser une autre méthode de
localisation dans quelques endroits de l’édifice.
Ø La complexité de l’environnement a
rendu difficile l’estimation des paramètres du modèle de propagation.
MÉTHODOLOGIE:
Ø On a amélioré l’algorithme de calcul
de signatures et d’estimation de position. L’amélioration consiste à exploiter
la différence de puissances et à ne pas utiliser les données reçues par les
points d’accès affectés par l’environnement.
Ø Pour simuler les données reçues par
le réseau, on a utilisé un modèle de propagation. Les paramètres de ce modèle
ont été calculés en utilisant les valeurs empiriques déjà collectées.
Ø La localisation par multilateration
introduite consiste à localiser les terminaux mobiles en calculant les distances
à partir des différences de puissances reçues. Ceci est possible seulement dans
le cas où on a au moins un point d’accès central pour lequel on connaît bien sa
puissance partout dans l’étage.
Ø Nos résultats ont été simulés sous
forme de statistiques et de cartes d’erreur. Ceci nous permet non seulement
d’évaluer notre travail, mais aussi de trancher sur nos choix d’algorithmes et
de fonctions d’erreur. Ces résultats sont aussi utilisés pour réajuster les
valeurs des atténuations choisies pour avoir le positionnement le plus précis
possible.
RÉSULTATS:
Les résultats obtenus avec les nouvelles
méthodes et manières de faire montrent que :
Ø La simulation des données était
validée pour quelques endroits de l’étage seulement ce qui va nécessairement alléger
le grand travail qui doit être fait lors des collectes des données.
Ø L’ensemble des points d’accès utilisés peut
regrouper seulement ceux de l’étage actuel, d’un étage en dessous et un étage
en dessus sans avoir besoin d’utiliser tous les points d’accès du bâtiment.
Ø La non considération de quelques points d’accès
qui causent des interférences améliore la précision de localisation de 3%.
Ø Notre méthode de calcul d’erreur améliore les
résultats de localisation de 4% en la comparant à une
méthode classique.
Ø l’erreur de précision de localisation par
«Fingerprinting» est de moins de 2 mètres pour 57% des cas (contre 37% pour
l’année 2012) et atteint 72% pour une localisation dans les corridors (contre
55% pour l’année 2012).
Ø Quelques endroits dans les corridors
(généralement les milieux et les coins) peuvent être exclus de la collecte de
données puisque les valeurs dans ces endroits peuvent être trouvées
théoriquement par nos équations établies. Le travail de collecte de données
fait au préalable peut être réduit donc de 40%.
Ø La méthode de multilateration est valable dans
quelques endroits seulement dans les espaces ouverts. Les statistiques de cette
méthode ne sont pas encore quantifiées à l’heure actuelle.
TREMBLAY, José Philippe |
DIPLÔME: Ph.D. |
TITRE:
Développement
et validation d’une nouvelle architecture de réseau de transducteurs dans le
domaine avionique.
RÉSUMÉ:
Dans le cadre de ce projet, une nouvelle
topologie d’un système de communications basée sur le protocole avionique
AFDX/ARINC664 est proposée. Des ensembles de capteurs et d’actuateurs,
géométriquement rapprochés, seront reliés entre eux par un bus secondaire régi
par la norme ARINC825. La garantie de l’intégrité des données transmises,
l’interopérabilité avec tous types de transducteurs ainsi que le respect des
différentes contraintes du domaine avionique constituent les aspects
prioritaires pris en compte lors du développement du réseau.
PROBLÉMATIQUE:
Dans l’industrie aéronautique, de nombreux
systèmes de capteurs et d’actuateurs sont requis afin d’assurer un nombre
grandissant de fonctions à bord d’un avion. Avec la technologie actuelle, la
connexion de ces instruments demanderait un réseau encombrant de fils. Les
différentes normes de sécurité des systèmes avioniques viennent encore plus
compliquer les choses en demandant l’installation redondante de tous les
composants à bord. De plus, la communication entre différents modules
appartenant à divers domaines d’applications est maintenant requise dans les
nouvelles plateformes avioniques, ce qui entraine une augmentation marquée de
la demande en bande passante à l’intérieur d’un aéronef tout en devant
s’assurer de maintenir l’intégrité des données critiques lors de leur
transmission.
MÉTHODOLOGIE:
La première étape a été de proposer une
architecture pour le réseau secondaire basée sur la norme ARINC 825 reliant les
transducteurs au réseau principal. Cette architecture est conçue pour être le
plus générique possible afin de desservir une quantité variable de
transducteurs de toutes sortes. Pour ce faire, l’architecture proposée
s’inspire du standard IEEE 1451, qui suggère un modèle de référence standard
permettant l’accès et le contrôle de transducteurs, d’une manière le plus
générique possible, à travers des interfaces communes vers tous systèmes de
contrôle ou d’instrumentation. La topologie proposée peut ultimement être
implémentée avec une liberté totale quant au choix du protocole de transmission
et des couches physiques du réseau, pouvant même jusqu’à supporter une
éventuelle implémentation sans fils. Afin de pouvoir valider l’architecture
proposée ainsi que les contraintes imposées par le domaine avionique, nous
avons également développé une plateforme matérielle. Cette plateforme, basée sur
deux FPGA Spartan 6 LX45T de Xilinx, est configuré pour maintenir une bande
passante de 1 Mbit/s et de garantir un flot complètement déterministe
d’information. Cette plateforme nous permet de facilement connecter plusieurs
types de transducteurs à un «End System» AFDX à travers un réseau secondaire
basé sur le protocole ARINC 825. Notre implémentation dédiée nous a également
permis d’y inclure des mécanismes de gestion de la redondance, de mesure de la
latence et d’un système de gestion des erreurs plus robuste.
RÉSULTATS:
À l’aide de cette nouvelle architecture, il est
maintenant possible d’ ajuster la fiabilité du réseau
en fonction du niveau de criticité requis par l’application visée. Lors de la
première implémentation de notre architecture à l’aide de notre prototype, nous
avons été en mesure de réduire la consommation de ressources de 87% comparée
aux designs traditionnels pour un réseau de 24 capteurs.
TRIGUI Aref
DIPLÔME: M.Sc.A.
TITRE:
Asservissement de l'énergie inductive transmise aux
implants électroniques.
RÉSUMÉ:
L’alimentation des implants médicaux
électroniques (IME) par couplage inductif a toujours été appréciée pour sa
biocompatibilité et sa capacité à transmettre une quantité d’énergie suffisante
aux IME. Cependant, la performance du lien inductif se dégrade en fonction de
la variation de la fréquence de résonance primaire suite aux changements du
facteur de couplage entre les bobines et de la charge secondaire. Dans ce contexte, nous présentons une nouvelle technique
pour maintenir l’état de résonance dans le transmetteur en dépit de ces
variations. Un transmetteur d’énergie inductive asservi est alors proposé. Il
est composé d’un système de transfert d’énergie (STE) classique et d’une boucle
d’asservissement. Le STE classique émet un champ inductif grâce à un
oscillateur à quartz de 13.56 MHz, un amplificateur de puissance de classe E et
un circuit résonant primaire constitué d’un condensateur et d’une bobine
d’émission. La boucle d’asservissement, quant à elle, comporte principalement
un bloc de détection de la tension aux bornes de la bobine d’émission (image de
la puissance à transférer vers l’IME) et un micro moteur pas-à-pas à haute
résolution qui agit sur le condensateur de résonance primaire et indirectement
sur la fréquence de résonance. Le transmetteur proposé a montré des
améliorations remarquables par rapport à un STE classique. Il permet également
d’alimenter divers implants sans l’intervention du concepteur.
PROBLÉMATIQUE:
Bien que l’alimentation des IME par
couplage inductif fût introduite il y a longtemps, plusieurs défis restent à
relever. Le défi majeur est la sensibilité de l’efficacité du transfert
d’énergie à la variation de certains paramètres du lien comme le facteur de
couplage entre les bobines, la charge du côté récepteur et l’inductance des
bobines. Une variation de l’un de ces paramètres est en mesure d’altérer la
fréquence de résonance primaire et de réduire en conséquence la quantité
d’énergie transférée vers l’IME.
MÉTHODOLOGIE:
Dans un premier temps,
nous passerons en revue les différentes techniques d’alimentation des IME,
leurs avantages ainsi que leurs limitations, puis nous présenterons brièvement
les IME déjà commercialisés qui emploient le couplage magnétique. Ensuite, les aspects fondamentaux du
système d’alimentation par couplage magnétique seront présentés. Ce couplage va
être aussi modélisé afin d’étudier la problématique de la sensibilité des
performances à la variation des paramètres du lien. Également, une étude
qualitative des principaux éléments constituants un STE sera présentée tout en
accordant une grande importance à l’AP de classe E, ses performances et ses
limitations. Puis, une revue de la littérature sur
les techniques de compensation de la variation des paramètres du lien inductif
sera entreprise. Ensuite, une description détaillée du transmetteur
asservi proposé sera faite. Chaque module fera
l’objet d’une étude minutieuse pour aboutir à un système de transfert d’énergie
de qualité. Finalement, le système proposé sera testé
et les résultats seront analysés et validés.
RÉSULTATS:
Les résultats obtenus montrent une
transmission à une fréquence précise de 13.56 MHz. Le système d’asservissement
réalisé est fonctionnel et sa performance est nettement meilleure que celle
d’un système de transfert d’énergie (STE) classique. Il atteint en effet un
taux d’amélioration moyen de puissance reçue d’environ 60% par rapport à un STE
classique (pour une vitesse de rotation du moteur de 0.25 tr/s) et une
résolution de variation de capacité de 0.032pF. Le système peut
également alimenter différents implants sans l'intervention du concepteur. Le
concept donne par ailleurs la possibilité d’utiliser une variété de bobines
d’émission dans la gamme d’inductance de à. Il présente ainsi une
solution efficace pour alimenter différents IME de l’équipe Polystim
de Polytechnique.
VAKILI, Shervin |
DIPLÔME: Ph.D. |
TITRE:
Optimisation de la largeur d'unités
fonctionnelles et de chemins des données de processeurs configurables pour le
traitement vidéo
RÉSUMÉ:
Ce projet propose deux nouvelles
techniques d'optimisation pour le processus de conception de processeurs
spécialisés (ASIP) et évalue leur
efficacité.
PROBLÉMATIQUE:
Ø La spécialisation du
processeur (ou la conception ASIP)
est une approche de conception du
matériel, qui vise à combler le fossé entre des processeurs programmables et la conception
ASIC. L'idée de base de cette méthode
est de spécialiser les éléments architecturaux d'un processeur de base reposant sur l'application cible en vue d'améliorer les facteurs d'efficacité.
Ø L'objectif de ce
projet est d'introduire deux problèmes d’optimisation nouveaux, qui peuvent
être utilisés dans le processus de conception ASIP. Ces optimisations
sont directement liées au calcul en virgule fixe.
Ø Dans les systèmes
embarqués temps réel, le calcul en virgule fixe est normalement utilisé pour
implémenter des applications de DSP et traitement vidéo.
Ø Les éléments
suivants représentent de brèves descriptions de ces optimisations.
Ø L'optimisation de la
longueur des mots des variables dans l'application cible visant à améliorer la
longueur du chemin de données (y compris les unités fonctionnelles, registres,
etc) dans l'ASIP.
Ø La sélection
des techniques et des architectures appropriées pour implémenter les
unités fonctionnelles. La complexité de ce problème dépend du nombre de
techniques disponibles pour chaque fonction, la
longueur des opérandes, etc.
MÉTHODOLOGIE:
Ø La recherche
proposée est prévue pour être réalisée en quatre phases principales basées sur les
objectifs. Pendant la première phase, nous allons développer un processeur personnalisé (ASIP), qui offre une capacité suffisante pour mettre en œuvre et évaluer les activités
proposées dans les étapes ultérieures
de ce projet.
Ø Dans la deuxième
phase, nous allons développer une méthodologie
pour modéliser l'erreur de
quantification et pour optimiser la
largeur des mots de la réalisation
matérielle en virgule fixe.
Ø
Dans la troisième
phase, nous allons développer une méthodologie de sélection automatique de largeurs des mots
pouvant être intégrée dans le processus de conception ASIP. Cette méthodologie est basée sur l'exploration de l'espace de conception et vise
à optimiser le compromis coût-précision.
Ø La quatrième phase introduira une
méthodologie pour optimiser l'architecture et la mise en œuvre des unités fonctionnelles utilisées dans l'ASIP. Cette méthodologie est également intégrée dans le processus de
développement de processeurs personnalisés.
RÉSULTATS:
Nous avons présenté un environnement de
conception ASIP, appelé PolyCuSP, qui offre une façon rapide et
flexible pour la conception des
processeurs personnalisés. Cette
approche comble le fossé entre
les deux méthodes bien connues: langages
de description de l'architecture (ADLs) et processeurs extensibles.
Dans un autre travail, nous avons proposé une nouvelle méthode pour optimiser la largeur des mots de réalisation
matérielle en virgule fixe.
Nous avons proposé une méthode
analytique pour simplifier le processus d'optimisation et deux nouveaux algorithmes
pour la sélection de la largeur des mots.
Dans la dernière étape, nous utilisons
l'idée de l'optimisation de longueur de mot dans
la conception ASIP pour optimiser
la longueur du processeur en fonction des besoins de l'application cible.
WANG,
YIQIU
DIPLÔME: M.Sc.A.
TITRE:
Conception d’un système à trois bands pour la
récupération de l’énergie à fréquence radio.
RÉSUMÉ:
Les dispositifs autonomes sont de plus en plus
importants pour un large éventail d'applications. Les dispositifs autonomes ne
nécessitent aucune source d'alimentation interne puisque la puissance
nécessaire à partir de l'énergie ambiante robuste. De nombreux types d’énergie
sont disponibles pour les appareils autonomes: vibration mécanique,
thermoélectriques, matériaux thermo-ioniques, et la propagation d'ondes RF. Une
des méthodes de récolte d'énergie la plus populaire est la récupération
d'énergie RF, quand on utilise l'identification par radiofréquence
(RFID). Pour employer l’énergie RF ambiante, les systèmes les plus
intéressants à explorer sont GSM850, GSM1900 en Amérique du Nord (GSM 900 et
GSM 1800 en Europe et en Asie) et WiFi (2,4 GHz). Ces systèmes sont
omniprésents dans l'environnement urbain et utilisent des fréquences qui
permettent antennes de résonance des tailles de l'ordre de 10-50 cm2.
PROBLÉMATIQUE :
Étant donné que la puissance RF ambiante est
inférieure à celle peuvent être fournis par une source RF désigné, le niveau de
puissance capté par l’antenne est très faible. En plus, il existe une perte sur
le réseau d’adaptation, donc la puissance disponible au bloc redresseur est
trop faible pour faire fonctionner des redresseurs classiques. Par conséquent,
beaucoup de topologies de redresseurs dédiés à faible puissance d'entrée sont
proposées. La plupart d’entre eux sont motivés par les applications RFID, et
seuls quelques-uns d’entre eux sont conçus directement pour la récolte
d’énergie RF.
MÉTHODOLOGIE:
Tout d'abord, la faisabilité de la récupération
d'énergie GSM RF sera étudiée. Dans ces recherches, les densités de puissance
de signaux RF des stations de base GSM et WiFi sources sont étudiées.
Ensuite, des redresseurs avec différentes
topologies seront mis en œuvre et comparés à partir des résultats de simulation
en utilisant le logiciel Cadence. Comme la densité de puissance de l’énergie RF
de la station de base GSM et WiFi est extrêmement faible dans l'air ambiant, la
topologie du redresseur doit être adaptée à faible tension d'entrée.
Toutefois, la charge de seuil est
inférieure au courant de fuite relativement grande. Par conséquent, la
performance de redresseurs utilisant des transistors à seuil bas sera explorée.
RÉSULTATS:
Quatre topologies de redresseurs classiques
sont conçues et simulées à l'aide de Cadence. Les résultats des simulations
montrent que le redresseur à couplage croisé a le meilleur rendement à faible
tension d'entrée. Ainsi, cette topologie est choisie pour le projet.
On obtient les résultats de la simulation de
deux redresseurs de la scène à l'aide de transistors standard et à bas seuil
respectivement. Les deux redresseurs ont la même taille de transistor et la
valeur du condensateur. La seule chose différente est le type de transistor. La
fréquence du signal d’entrée en courant alternatif est de 2.4 GHz. Nous
obtenons la conclusion des comparaisons d’efficacité que le redresseur de base
à transistor à seuil bas donne une meilleure efficacité à faible niveau
d’intrants.
WATSON, Meghan DIPLÔME: Ph.D.
TITRE:
Optimisation des paramètres de micro
stimulation intracorticale pour implants visuels
RÉSUMÉ:
Cette recherche prend place au sein du projet
prothétique visuel intracortical qui vise à convertir une image numérique en un
signal de stimulation électrique qui, lorsqu’il est transmis au tissu cortical,
peut produire l’activité neuronale nécessaire pour générer une représentation
de l’image par phosphènes. Le défi consiste à déterminer la corrélation entre
la stimulation électrique (microstimulation) et l’activité neuronale. Ce projet
explore systématiquement les influences que chaque paramètre du signal de
microstimulation a sur l’activation de neurones, et il identifie les
relations qui existent entre les paramètres du signal de microstimulation. Avec
cette connaissance, nous pouvons alors déterminer les paramètres optimaux de
signal de stimulation qui minimisent les dommages de tissu, les interactions
entre les électrodes et la perturbation de circuit cortical, tout en veillant à
la compréhension et l’encodage naturel des informations de signal.
PROBLÉMATIQUE:
L’activation neuronale produite par
microstimulation électrique est très différente de celle produite par un
stimulus naturel (par exemple: auditif, tactile, visuel). Les effets de
microstimulation tendent à se propager beaucoup plus loin et ils durent
beaucoup plus longtemps. Ces différences doivent être soigneusement examinées
afin de concevoir un protocole de stimulation pour produire des configurations
spécifiques de l'activation de neurones.
MÉTHODOLOGIE:
Ce projet examine les effets des paramètres de
microstimulation sur tissu cortical, comme en témoignent le comportement et la
transmission du signal ainsi que l'excitabilité neuronale, en utilisant des
expériences de neurophysiologie animale selon les étapes suivantes:
Ø Une étude théorique des dernières
expériences de microstimulation corticales va évaluer les variations des
paramètres et leur efficacité pour définir la gamme fonctionnelle.
Ø Une méthode de stimulation sera
développée pour tester systématiquement les effets des paramètres de signal sur
l'activation neuronale
Ø Expérience 1: explore les effets de
paramètres de stimulation sur le comportement chez des rats anesthésiés
Ø Expérience 2: examine les effets des
paramètres de stimulation sur la transmission du signal à travers le tissu
cortical (effets spatiaux et temporels).
Ø Expérience 3: compare l'excitabilité
neuronale provoquée par micro stimulation à celle d’un stimulus naturel.
Ø Les ensembles de données obtenues à
partir des expériences seront unifiés avec le développement d’une simulation
pour modéliser les réponses corticales à la micro stimulation et optimiser le
signal.
RÉSULTATS:
L’étude théorique a été complétée et la
méthodologie de stimulation développée. J'ai complété ma formation à effectuer
des expériences neurophysiologies animales et à maîtriser l'équipement
nécessaire pour mener des expériences. Le test et l’installation du nouvel
équipement ont été complétés. Actuellement, les trois expériences sont en phase
de développement méthodologique, où le test initial est en cours pour valider
le paradigme expérimental avant le début de la collecte de données officielles.
ZGAREN, Mohamed DIPLPÔME: Ph.D.
TITRE:
Récepteur sans fil à ultra basse puissance en
bande ISM 915 MHz dédié à des dispositifs médicaux.
RÉSUMÉ:
Notre objectif de recherche consiste en la mise
en œuvre d’un système de réception sans fil haute performance et à faible
puissance. Nous voulons examiner deux architectures principales. La première,
destinée à être intégrée dans des implants qui ne nécessitent pas un débit de
transmission élevé, serait à très bas niveau de consommation d’énergie. La
seconde serait conçue pour des applications exigeant un débit de transmission
élevé à savoir quelques mégabits par seconde. Avec le développement des piles
d’alimentation miniaturisées à haute efficacité, le défi est donc d’atteindre
une durée de vie la plus longue possible.
PROBLÉMATIQUE:
La supervision biomédicale touche un espace
considérable dans le domaine de l’instrumentation biomédicale qui comprend la
partie communication des données physiologique et biologique à partir d’un
point de mesure vers une unité externe de supervision et de traitement des
données et vice-versa. L’avantage est de faire continuellement l’échange des
données sans déranger les patients et sans endommager les résultats de mesure.
Les méthodes de collecte des données classiques telles que le lien filaire ne
sont plus recommandées à cause des risques d’infection. D’autre part, plusieurs
méthodes de transmission sans fil ont été développées afin d’assurer la
communication montante ou descendante de l’implant vers l’unité de contrôle
externe telles que les ultrasons, l’électromagnétique, l’infrarouge et les
radiofréquences (RF). D’une façon générale, les dispositifs implantables se
basent sur les communications sans fil et comprennent deux modules principaux.
Le premier est une station de contrôle placé à l’extérieur du patient et qui a
pour rôle de traiter les informations reçues ou bien à envoyer vers l’implant.
Le deuxième élément est un microsystème implantable qui permet de prendre des
mesures biologiques et de transmettre celles-ci vers la station de contrôle où
elles seront par la suite traitées et sauvegardées. Les ultrasons ou
l’infrarouge sont considérés insatisfaisants.
MÉTHODOLOGIE:
Pour accomplir l’objectif proposé,
nous planifions les étapes suivantes:
Ø Une révision détaillée
de la littérature sera effectuée;
Ø Le design sera fait pour
un procédé CMOS dans l’environnement de Cadence. Pour ce faire, il faudra une
maîtrise adéquate de l’environnement de Cadence pour la conception de circuits
mixtes;
Ø La vérification
oost-lay-out sera comparé avec la simulation du circuit;
Ø La puce fabriquée sera
testée.
RÉSULTATS:
Toutes les simulations ont être réalisées à
l’aide du logiciel Cadence Design System en technologie TSMC 90 nm. Nous avons
envoyé le système proposé pour la fabrication et nous l’attendons sous peu pour
vérification finale.
ZHANG, Kai |
DIPLÔME: Ph.D. |
TITRE:
Spectromètre en technologie CMOS basé sur le
phénomène d’absorption du rayonnement électromagnétique.
RÉSUMÉ:
Les éléments de dispersion sont irremplaçables
dans les spectromètres modernes. Dans ce projet, nous proposons une nouvelle
méthode pour la détection du spectre basée sur l’absorption des longueurs
d’onde dans du silicium fabriqué en technologie CMOS sans utilisation
d’éléments de dispersion.
La technologie CMOS est une technologie très
mature de sorte que le détecteur et les composants de traitement de signal
peuvent être implémentés sur la même puce. Ce principe de détection est
différent de celui des spectroscopes traditionnels. La profondeur de
pénétration de la lumière incidente dépend de la longueur d’onde pour un
matériau semi-conducteur spécifique de sorte qu’on peut avoir l’information
spectrale en mesurant les paires électron-trou générées par les photons en
fonction de la profondeur.
PROBLÉMATIQUE:
Les photons avec différentes longueurs d’onde
pénètrent à différentes profondeurs et génèrent des pairs électrons-trou dans
le silicium. Nous détectons le profil des charges en excès dans le but de
dresser l’information spectrale. Pour y arriver, la génération et la
recombinaison des charges et le transport des charges doivent être étudiés. Le
transport des charges en excès dépend de la concentration des dopants, de la
distribution des champs électrique et magnétique, du taux de génération et de
recombinaison, des courants de dérive et de diffusion, des recombinaisons en
surface qui réduisent le nombre de charges générées prés de la surface, de la
durée de vie des charges, de la température et de la géométrie du dispositif.
Étudier ces facteurs et optimiser le design nous aideront à dresser le profil
des longueurs d’ondes incidentes. En outre, pour une fabrication en technologie
CMOS, la taille et la forme du détecteur doivent se conformer aux règles de
conception.
MÉTHODOLOGIE:
Nous commençons notre recherche par le calcul
de la génération et la recombinaison des charges en excès dans le substrat de
silicium dopé légèrement et dans la région de déplétion respectivement. Par la
suite, nous calculons les courants de dérive et de diffusion dans des
conditions idéales avec des champs électriques et magnétiques uniformes.
Certains résultats expérimentaux valident l’idée de détection. Par la suite,
nous considérons plus de facteurs comme le taux de génération-recombinaison, la
recombinaison en surface, le transport dans la région de déplétion et le champ
électrique non uniforme, pour décrire le transport des charges en excès dans
tout le dispositif et les effets de chaque facteur. En même temps, dans le but
de soutenir et modifier le calcul théorique, nous simulons le modèle du
dispositif à l’aide de COMSOL, un logiciel de calcul par éléments finit et nous
fabriquons des prototypes pour faire des expériences.
RÉSULTATS:
L'équation de continuité sert à
décrire le transport des porteurs générés en excès dans le substrat de
silicium. Des expériences préliminaires sur des prototypes ont validé l’idée de
détection. Elles ont prouvé la possibilité de faire un spectromètre avec le
principe de l’absorption de longueur d’onde générée par la détection des
porteurs en excès en fonction de la profondeur. Les résultats MATLAB ont montré
une certaine différence par rapport aux expériences. L’analyse théorique a
encore des difficultés à expliquer tous les détails des données expérimentales exactement. De
nombreux efforts sont réalisés pour améliorer le processus théorique. Des
simulations COMSOL sont également utilisées pour chercher les raisons de la
différence et plus de modèles sont en cours de simulation. Un nouveau circuit
PCB a été fabriqué et des expériences sont en cours.
ZHENG, Yushan |
DIPLÔME: Ph.D. |
TITRE:
Un microsystème pour
l’immunologique magnétique de détection de toxines protéiques.
RÉSUMÉ:
Ce travail se concentre sur le
circuit et le système mise en œuvre d'un test immunologique basé sur une plate
forme de microsystème magnétique pour être utilisé comme borne de capteur pour
la détection de protéines toxines dans l’environnement.
PROBLÉMATIQUE:
Récemment, des efforts
considérables ont été axés sur l’alimentation et les questions de sécurité de
l’eau causées par des toxines qui sont produites par des bactéries, telles que
Staphylococcus aureus et Escherichia coli. En raison de la multiplication
rapide des bactéries, il est toujours important de développer des méthodes de
détection rapide et précoce des contaminants des aliments et de l'eau. Comme une
technologie habilitante, le microsystème pour des applications
environnementales attire de plus en plus d'intérêts. Les trois principaux défis
la conception d'un capteur de haute performance, de l’emballage technique et du
circuit intégré.
MÉTHODOLOGIE:
Une micro-bobine fabriquée à la
fois sur substrat de silicium et substrat de polymère est exploitée en tant que
capteur de particules magnétiques, tandis que des microcanaux et une
microplaque ultra mince pour ELISA classique a été utilisée pour les réactifs.
RÉSULTATS:
Les résultats de simulation de deux
circuits de détection prouvent que notre système est capable de détecter des
particules magnétiques dans des volumes différents, ainsi le microsystème
proposé a le potentiel pour la médecine diagnostic, la détection de pathogènes
alimentaires et l’analyse de l’eau.
Les
projets de recherche mentionnés dans ce rapport sont, pour la plupart, financés
par les subventions individuelles ou de groupe des chercheurs (montants
annuels.)
Chercheur |
Organisme, Programme |
Montant annuel |
Période de validité |
Titre |
Bois, G. |
CRSNG |
125,000.00 $ |
2009 – 2014 |
«Design and Verification of Embedded Systems in the Context of the ESL Paradigm» |
David, J.P. |
MDEIE |
150,000.00 $ |
2012 – 2014 |
«Déduction de contenu numérique connu èa
40/100 Gbits Application à la détection de flux vidéos» |
David, J.P |
CRSNG |
15,000.00 $ |
2012-2017 |
«Implantation efficiente d'applications adaptées à la technologie FPGA
sans expertise spécialisée en conception de circuits» |
David, J.P., |
MDEIE |
300,000.00 $ |
2012 - 2014 |
«Détection de contenu numérique connu a 40/100 Gbits Application a
la détection de flux vidéos» |
David, J.P., |
FCI |
460,000.00 $ |
2011-2013 |
«Fonds des leaders» |
Kashyap, R., |
Gouvernement du Canada |
1,400,000.00 $ |
2010-2017 |
Chaire de Recherche du Canada |
Kashyap, R. |
NSERC PGS for PhD student: J. Lapointe |
105,000.00 $ |
2011-2013 |
Fs Laser Writing of Waveguides in Crystalline Media |
Kashyap, R. |
NSERC |
240,000.00 $ |
2011-2015 |
SOCRATES:Solid state Optical Cooling in Rare earth |
Kashyap, R., |
Canada Council for the Arts : Killiam Research Fellowship |
140,000.00 $ |
2012-2014 |
Philosopher |
Kashyap, R., |
NSERC ENGAGE |
394,000.00 $ |
2012-2015 |
QUDOS (QD Cooling) |
Langlois, P. |
MITACS |
57,500.00 $ |
2013 |
«Système
de classification automatique de la rétinopathie diabétique à partir d’images
de fond d’oeil» |
Langlois, P. |
CRSNG
|
25,000.00 $ |
2013 |
«Algorithmes et architectures pour le contrôle
embarqué de cameras à EMCCD» |
Langlois, P., |
CRSNG |
18,000.00 $ |
2012-2016 |
Réduire la
consommation d’énergie a la source : repenser la nature des processeurs
dans les centres de traitement de données |
Martel, S., |
Chaire de Recherche Ecole Polytechnique |
60,000.00 $ |
2011 – 2015 |
Développement et construction de plateformes de
ciblage thérapeutique directe |
Martel, S. |
Natural Sciences and Engineering Research |
82,000.00 $ |
2012-2016 |
Development of a local drug transport mechanism through the blood brain barrier via magnetic nanoparticles induced hypothermia |
Nicolescu, G. |
CRSNG |
130,000.00 $ |
2009 – 2014 |
«Modelling and Validation for automatic Design of On-Chip Heterogeneous Systems» |
Savaria, Y. |
Chaire de Recherche du Canada |
200,000.00 $ |
2008 – 2014 |
«Conception des microsystèmes et systèmes
microélectroniques» |
Savaria, Y. |
CRSNG |
56,000.00 $ |
2009 – 2013 |
«Tools and Design Techniques for High-Performance Low-Power MPSoCs Using Optimized Asip Architectures» |
CRSNG |
576,000.00 $ |
2010– 2013 |
«Intercortial Multiunit Implant to Create Vision for Blinds: Integration and Validation» |
|
Sawan, M., |
Bombardier MITACS CRD |
240,000.00 $ 200,000.00 $ 480,000.00 $ |
2010-2013 |
Data Networks and Smart Sensors for Safety-=Criticals Avionics Applications |
Sawan, M., |
Chaire de Recherche du Canada |
140,000.00 $ |
2008– 2014 |
«Dispositifs médicaux intelligents» |
Sawan, M., |
CRSNG |
260,000.00 |
2012-2017 |
«Smart Brain Interfaces for Diagnostic and Therapeutic Applicatoins: A Multidisciplinary Approach» |
Chercheurs |
Organisme Programme |
Montant annuel |
Période de validité |
Titre |
Bois, G.,
David, J.P., Langlois, P., |
FQRNT |
99,000.00 $ |
2012-2015 |
Systèmes MPSoC extensibles: de l’exploration
aux applications |
Bois, G.,
Boland, Nicolescu, G., Thibeault, C. |
CRIAQ |
81,000.00 $ |
2011-2014 |
«Architecture Exploration for High-Integrated and Low-Cost Avionic Systems» |
Bois, G.,
Boland, Nicolescu, G., Thibeault, C., |
CAE Electronics |
223,300.00 $ |
2011-2014 |
«Architecture Exploration for High-Integrated and Low-Cost Avionic Systems» |
Bois, G.,
Boland, Nicolescu, G., Thibeault, C., |
CRSNG |
312,900.00 $ |
2011-2014 |
«Architecture Exploration for High-Integrated and Low-Cost Avionic Systems» |
Bois, G.,
Boland, Nicolescu, G., Thibeault, C., |
CMC Electronics |
75,000.00 $ |
2011-2014 |
«Architecture Exploration for High-Integrated and Low-Cost Avionic Systems» |
Cheriet, F., Langlois, P., |
CRSNG |
125,919.00 $ |
2012-2014 |
«Système d’analyse
automatique en temps réel des images de la rétine» |
David, J.-P., Savaria, Y., |
FCI |
263,091.00 $ |
2011-2013 |
«Laboratoire VESI (Very Efficient System Implemention)» |
Duchesneau, M,
François Boyer et 30 autres de 6 univ et 2 cegep |
FQRSC |
333.333$ |
2011-2015 |
«Observatoire interdisciplinaire de création et
de recherche en musique (OICRM)» |
Kashyap, R., et 7 autres |
CRSNG |
1,150,000.00 $ |
2010-2013 |
«Integrated Sensor Systems» |
Kirk, Kashyap, R., et 7 autres |
CRSNG |
1,150,000.00 |
2010-2013 |
«Integrated Sensor Systems» |
Martel, S. et 8 autres |
CQDM |
684,155.00 $ |
2011-2014 |
«SN-38 (or5-FU) drug encapsulation in liposomes transported by magnetotactic bacteria for localized colorectal cancer treatment» |
McWalter, I., Savaria, Y., et 8 autres |
FCI – Équipement |
9 600,000.00 $ |
2009– 2014 |
«EmSYSCAN : Embedded Systems Canada» |
Moss, L., Bois, G., |
CRSNG |
200,242. 00 $ |
2013-2014 |
«Automated System-Level HW/SW Co-Simulation and Co-Synthesis» |
Nicolescu, G., Bois, G., |
STMicroelectronics |
12,750.00 $ |
2011-2014 |
«3D System-level design for next generation ubiquitous networks» |
Nicolescu, G., Bois, G. |
CRSNG |
76,500.00 $ |
2011-2014 |
«3D System-level design for next generation ubiquitous networks» |
Savaria,
Y. Langlois, P., Bois, G., David, J.-P., |
FQRNT |
33,000.00 $ |
2012-2015 |
«Méthodes et outils pour faciliter
l’exploitation des FPGA avec des tissus de calcul pré-synthétisés
configurables et des processeurs hétérogènes.» |
Savaria, Y., Bois, G., |
FQRNT |
99,000.00 $ |
2012-2015 |
«Systèmes MPSoC extensibles: de l exploration aux applications» |
Savaria, Y., Langlois, P., |
FQRNT |
33,000.00 $ |
2012-2014 |
«Méthodes et outils pour faciliter l’exploitation des FPGA avec des tissus de calcul
pré-synthétisés
configurables et des processeurs hétérogènes» |
Sawan,
M., Lesage, F., L Lassonde,
M., Tardif, J-C Nguyen,
D., Deschamps, A., Denault, A., Lanthier, S., |
Instituts de recherche en Santé du Canada
(IRSC) |
1 745,500.00 $ |
2009– 2014 |
«A portable wireless near infrared spectroscopy system combined with electroencephalography for bedside monitoring of stroke and cardiac patients» |
Sawan,
M., Lesage, F., Lassonde, M., Tardif, J-C. Nguyen,
D., Deschamps, A., Denault, A., Lanthier, S., |
Fondation des maladies du cœur du Canada
(FMCC) |
625,000.00 $ |
2009– 2014 |
«A portable wireless near infrared spectroscopy system combined with electroencephalography for bedside monitoring of stroke and cardiac patients» |
Sawan,
M., Savaria, Y., Bois, G., et 24 autres |
FQRNT ReSMiQ |
412,500.00 $ |
2008– 2014 |
«Analog, digital and RF circuits and systems design» |
Sawan, M., Kashyap, R., et 6 autres |
CRSNG/CRIAQ |
480,000.00 $ |
2009-2013 |
«Sky Sensors» |
Sawan,
M., Savaria, Y., et 6 autres |
CRIAQ-AVIO402, CRIAQ, NSERC-CRD, Mitacs,
Bombardier, Thales |
440,400.00 $ |
2010 - 2013 |
«Data Networks and Smart Sensors for Safety-Critical Avionics Applications» |
Thibeault,
C., Audet, Y., et 5 autres |
CRSNG-MDEIE-CRIAQ-MITACS |
328,000.00 $ |
2011-2013 |
«Méthodologie de
conception, vérification
et test des systèmes embarqués tolérants aux radiation» |
Zhu, G., Liu,
X., Savaria, Y., |
CRIAQ, MDEIE, Bombardier, Thales |
185,000.00 $ |
2012-2013 |
«Développement d'un r éseau AFDX avec niveau de
sûreté renforcé pour la prochaine génération de réseaux de communication
d'aéronef» |
Le groupe
GR2M possède un ensemble diversifié d’équipements électronique provenant de
diverses subventions (FCI, NATEQ, NSERC, SCM/CMC) obtenues par les différents
professeurs membre du GR2M.
ÉQUIPEMENT
APPARTENANT AU GROUPE (www.GR2M.polymtl.ca)
|
|
|||||
Nb |
Fabriquant |
Modèle |
Description |
|
||
1 |
AAEROFLEX |
IFR34133 |
Générateur
de signal RF 3GHz |
|||
1 |
Agilent |
16034H |
test fixture |
|||
1 |
Agilent |
16047E |
Test Fixtures 40 Hz to 110 MHz |
|||
1 |
Agilent |
16048G |
Test Leads |
|||
1 |
Agilent |
16065A |
Ext Voltage Bias Fixture |
|||
1 |
Agilent |
16314A |
balance /unbalance 4 terminal converter |
|||
1 |
Agilent |
33250A |
0-80MHz WaveForm Generator |
|||
1 |
Agilent |
4294-61001 |
Impedance Analyser fixture 100W |
|||
1 |
Agilent |
4294A |
Impedance Analyzer 40Hz-110MHz |
|||
2 |
Agilent |
E3631A |
Power Supply |
|||
1 |
Agilent |
E3641A |
Power |