Résultats liés à « Nouvelles technologies »

CLEAN : Combustion in Low-Emission And CO2–Neutral technologies -Alessandro Parente

Ensuring affordable and sustainable energy for future generations


La dépendance mondiale à la combustion comme vecteur de transformation de l’énergie chimique contenue dans les carburants devrait subsister. Pour satisfaire nos besoins en énergie, nous devons continuer à faire progresser notre compréhension dans ce domaine, encore mal compris par sa complexité physique. Développer de nouvelles technologies capables de gérer efficacement les carburants neutres en CO2, sans produire de polluants reste un challenge majeur pour la science. Quelques concepts de nouvelles technologies de combustion ont été proposés récemment et mis en œuvre dans certaines installations pilote afin de mieux les comprendre. Cependant, ces régimes de combustion à faibles émissions sont extrêmement complexes et donc très difficiles à maîtriser, rendant impossible la transposition de solutions d’une configuration industrielle à une autre. L’objectif de CLEAN est de combiner les avancées les plus récentes en informatique et en calcul haute performance, afin de permettre une transition vers les nouvelles technologies de combustion peu polluantes utilisant des carburants neutres en CO2 dans le contexte de la transition énergétique future
 

Dernières nouvelles

Article du Soir du 27 mai 2019 sur les recherches du Prof. Alessandro Parente
Le Soir ULB – urgence climatique

Biographie


Né en 1980. Docteur en génie chimique et des matériaux (Università di Pisa), maîtrise en génie chimique (Università di Pisa), chercheur à l’University of Utah et au Von Karman Institute et actuellement Professeur associé au département Aero-Thermo-Mécanique (ULB), vice-président de la section belge de l’Institut de combustion et président du groupe de recherche ULB-VUB « Combustion and Robust Optimization ». En 2011, le professeur Parente a reçu le Fonds Renard pour ses recherches dans le domaine de la mécanique des fluides, et ses activités sont supportées par des prestigieux bailleurs de fonds nationaux et internationaux, notamment le Conseil européen de la recherche (ERC Starting Grant et Marie Skłodowska-Curie Actions), EU Horizon 2020 ; démontrant l’intérêt européen pour les nouvelles technologie de combustion.

1. Changement climatique, énergies renouvelables et stockage

Une nouvelle révolution énergétique est proche : supporter notre modèle sociétal tout en s’orientant vers des sources d’énergies neutres en CO2 est l’un des défis majeurs du 21ème siècle. Quand on parle d’énergie, on identifie mal le caractère prépondérant de la combustion. Pensons un instant à notre vie quotidienne, aux produits que nous utilisons, à notre façon de nous déplacer en réunion, pour rendre visite à la famille, aux amis, pour partir en vacances, … Même une simple recherche sur internet requiert la combustion. Nous réalisons rapidement que presque toutes les activités ont une forte signature énergétique. La majeure partie de cette énergie, environ les deux tiers, provient aujourd’hui de la combustion.

La combustion est aussi la principale source de pollution atmosphérique et donc du changement climatique. Un rapport récent de l’ONU a indiqué que la concentration de CO2 dans l’atmosphère avait atteint 405,5 parties par million (ppm). Si nous continuons à ce rythme, dans 50 ans, nous dépasserons le niveau de 500 ppm et verrons les températures dangereusement augmenter, remettant en cause les sociétés de nos enfants et petits-enfants. Aujourd’hui, nous avons déjà presque dépassé les niveaux de CO2 dans l’atmosphère qui permettraient de respecter les recommandations de la COP21 et limiter le réchauffement à 1,5 °C. Le problème ne peut plus être ignoré et nous devons changer notre façon de produire et d’utiliser l’énergie.

Les nouveaux développements dans les énergies renouvelables sont fondamentaux pour assurer les besoins en énergie de la génération future, dans le cadre d’un modèle de croissance durable. Cependant, un problème fondamental se pose pour une société qui utiliserait exclusivement des sources renouvelables : leur intermittence intrinsèque. Nous savons tous que les énergies éolienne et solaire sont soumises aux aléas quotidiens et saisonniers du vent et du soleil. De plus elles ont une forte dépendance géographique, des parc solaires dans le Sahara sont efficaces mais dans des villes comme Bruxelles, ce n’est pas le cas. Les parc éoliens off-shore sont très intéressants sauf dans les régions avec peu de vent. Les sources géothermiques et hydroélectriques ne sont disponibles que sur des sites spécifiques et imposent des contraintes précises en terme d’exploitation des infrastructures. Il est donc nécessaire de développer des solutions de stockage capables de garantir la disponibilité de l’approvisionnement en énergie requis lorsque les sources renouvelables ne sont pas disponibles, permettant de répondre à une demande permanente.

Le stockage sur batterie est très efficace pour le stockage à court terme, elles présentent peu de pertes lors d’un cycle charge décharge : moins de 10% de l’énergie est perdue. Elles peuvent donc être utilisées en cas de stockage court terme. Cependant leur coût limite leur utilisation à grande échelle, les parcs de batteries construit par exemple par Tesla ont une capacité de stockage qui permettent d’alimenter une ville pendant à peine quelques minutes, pour un coût unitaire très élevé.

Le stockage de l’énergie à long terme (stockage saisonnier) et les processus à forte consommation d’énergie (transport de passagers à grande distance et processus industriels) nécessitent, par contre, des densités d’énergie élevées (plusieurs dizaines de MJ par kg), qui ne peuvent être réalisés que par des carburants. Le projet d’avion Solar Impulse, technologiquement à la pointe, ne permettait que de transporter lentement un seul passager sur de courtes distances. On peut donc comprendre que le transport aérien devra continuer à utiliser une source chimique, les carburants. Il en va de même pour beaucoup de processus industriels et le transport des biens et des personnes.

Nous avons sous nos yeux un paradoxe apparemment insoluble, à savoir la prise de conscience de l’impact négatif important des technologies basées sur la combustion et, parallèlement, la reconnaissance du fait que note société a besoin de la combustion pour satisfaire ses besoins énergétiques. L’objectif de CLEAN est de proposer une solution de ce paradoxe : il est possible que la combustion soit non polluante et neutre en CO2.

2. Un mix énergétique futur couplant renouvelable et combustion

Le futur mix énergétique comprendra une variété de carburants. Les technologies Power-to-X (P2X) permettent de stocker l’excès d’énergie renouvelable sous forme de composés chimiques, caractérisés par des densités d’énergie très élevées et, de ce fait, représentent les candidats idéaux pour le stockage à long terme, les processus industriels à forte intensité énergétique et les transports. L’idée est d’utiliser le surplus de production d’énergie renouvelable pour transformer les produits de combustion, CO2 et eau en carburant. Ce carburant est ensuite brûlé et le CO2 et l’eau stocké en vue du prochain cycle.

Ces composés chimiques sont généralement appelés «Vecteurs Energétiques Intelligents» (VEI) et comprennent l’hydrogène (la molécule la plus facile à former par électrolyse de l’eau), l’ammoniac (un moyen efficace de stocker l’hydrogène sous forme liquide en le combinant avec de l’azote atmosphérique), le méthane (combinant l’hydrogène avec le dioxyde

de carbone recyclé issu des procédés de captage et de stockage), mais également le méthanol et d’autres combustibles synthétiques pour des applications ciblées (transport aérien et terrestre, production d’énergie,…). La disponibilité des VEI peut potentiellement conduire à une intégration continue des sources d’énergies renouvelables et des technologies de combustion (Figure 1), dans le cadre d’un modèle d’économie circulaire, où la dépendance aux sources de combustibles fossiles peut être écartée, comme l’indique la Figure 1.

Figure 1 – Une grande diversité de vecteurs énergétiques remplacera les combustibles fossiles dans le futur. Ces vecteurs seront produits par des sources renouvelables. En toute logique leur utilisation devra ne pas produire de polluants et nécessite l’implémentation de nouvelles technologies de combustion.

La disponibilité de ces différents vecteurs est une opportunité majeure. Elle peut contribuer à la décarbonisation de l’alimentation électrique, malgré des offres et demandes fluctuantes en énergie et à assurer un approvisionnement énergétique plus sûr et constant.

Le stockage de l’énergie dans les nouveaux vecteurs d’énergie intelligents rend le rôle de la combustion crucial. Pour que ce concept power-to-X soit efficace et viable, de nouvelles technologies de combustion doivent être développées, afin de permettre la flexibilité attendue du combustible sans compromettre l’efficacité énergétique et les émissions de polluants, voire l’efficacité de l’application. C’est loin d’être le cas aujourd’hui. En effet, les processus industriels sont optimisés compte tenu de la spécificité du combustible utilisé, gaz naturel, charbon, diesel, essence … Les rendre « flexibles en carburant », c’est-à-dire leur permettre d’utiliser n’importe quel

VEI, dont les caractéristiques de combustion varient fortement, constituera un défi technique majeur pour les prochaines décennies.

Une solution consiste à adapter les carburants aux technologies existant, mais les limites de ce paradigme seront vite atteintes : la disponibilité locale de blocs constitutifs de carburant (par exemple, le dioxyde de carbone) posera problème. Une meilleure approche consiste à développer des technologies capables de fonctionner efficacement et sans émissions nocives, quel que soit le carburant. Ces technologies sont regroupées sous le terme MILD combustion.

3. Novel combustion technologies

Figure 2 – Le trilemme énergétique : notre société a besoin de sources d’énergies peu coûteuses, sures et neutres pour l’environnement. .

Pour atteindre l’objectif à long terme de neutralité du CO2 et atténuer les effets du réchauffement climatique, nous avons besoin de repenser les technologies de conversion énergétique et donc la combustion. Les technologies de combustion MILD offrent une solution à ce problème, car elles permettent de garantir la flexibilité du carburant, tout en assurant une excellente conversion énergétique et en réduisant les émissions de polluants à des niveaux quasi nuls (figure 2).

La combustion MILD découle d’une nouvelle perspective dans l’analyse des procédés de combustion, développée au cours des dernières décennies. Auparavant, il était considéré comme impossible d’obtenir à la fois une efficacité énergétique élevée et de faibles émissions en polluants, un compromis devait être accepté. Le problème n’était étudié que d’un point de vue énergétique, pas chimique. De nos jours, la combustion est traitée et

contrôlée comme un réacteur chimique, ce qui permet à la fois de satisfaire les besoins environnementaux et énergétiques et de s’adapter la flexibilité nécessaire aux futurs vecteurs énergétiques (Figure 3). Quelques installations expérimentales de ces technologies sont apparues dans les laboratoires de recherche comme à l’ULB, dont l’expertise est reconnue internationalement dans le domaine. Cependant, ces régimes de combustion à faibles émissions sont très complexes et difficiles à simuler, rendant impossible la transposition de solutions développées d’une configuration industrielle à une autre. Ceci est encore plus compliqué dans un scenario caractérisée par la coexistence de plusieurs VEI.

Figure 3 – Avec les technologies actuelles, un choix doit être fait entre le niveau d’oxyde d’azote émis et l’efficacité du processus. Les cherches menées à l’ULB ont démontré qu’utiliser le concept du MILD permet d’obéir à ces deux contraintes en même temps.

4. CLEAN

CLEAN vise à développer des outils de simulation avancés pour les systèmes de combustion de taille semi-industrielle. Ces modèles peuvent être utilisés en toute confiance pour prévoir le comportement des systèmes existant, optimiser leur fonctionnement et développer à terme la prochaine génération de brûleurs pour tout type d’applications industrielles.

Des approches multi-échelles et multi-physiques seront développées pour décrire avec précision tous les phénomènes couplés dans la combustion MILD, de l’échelle moléculaire où la conversion du combustible a lieu

jusqu’à celle du système lui-même. Les données expérimentales de l’ULB et simulées seront utilisées, dans une approche intégrée, où ces deux piliers se nourrissent dans un cycle vertueux (Figure 4), générant les données haute-fidélité nécessaires au développement de jumeaux numériques (digital twins) permettant de prédire avec confiance le comportement de ces systèmes. À cette fin, des techniques inspirées de l’apprentissage automatique – machine learning et intelligence artificielle – seront utilisées pour reconnaître les modèles et classer les informations sous la forme de modèles réduits.

Figure 4 –Les « Digital twins » peuvent être considérés comme le lien entre les systèmes réels et le monde digital. Leur développement nécessite une nouvelle stratégie de recherche où expériences et simulations alimentent des méthodes avancées de machine learning permettant d’extraire les informations nécessaires à la construction du « digital twin »

Le projet propose de tester cette approché et d’en démontrer la validité sur trois systèmes : une fournaise semi-industrielle pour les processus industriels, une micro-turbine à gaz et un moteur à piston pour la production de chaleur et d’électricité. La disponibilité de ces trois dispositifs expérimentaux dans le groupe de recherche BURN [1] offre l’occasion unique de prouver l’efficacité des « digital twins » pour une variété d’applications et leur utilisation potentielle dans le monde industriel mais aussi pour les décideurs politiques en charge de la réglementation.

CLEAN représente la première tentative de réalisation de modèles « digital twins » pour les systèmes de combustion. Ce projet repose sur l’approche

novatrice d’utilisation de données haute-fidélité pour développer directement des modèles afin de contrôler, d’optimiser et de développer de nouveaux systèmes énergétiques. Les ingénieurs ont toujours développé des modèles globaux et des corrélations pour la conception et l’optimisation, basés sur des approches empiriques et semi-empiriques. Il est temps d’introduire la simulation numérique et l’apprentissage automatique dans ce processus de conception et développement, pour permettre l’émergence de nouvelles technologies disruptives.

[1] The ComBUstion and Robust OptimisatioN research group is a joint ULB-VUB group, http://burn-research.be.

5. Requested Budget

6. Environnement de travail

L’activité de recherche du Professeur Parente, s’articule autour des axes suivants :

• Interaction turbulente / chimique dans les modèles de combustion turbulente et les modèles d’ordre réduit.

• Combustibles non conventionnels issus de sources renouvelables.

• Nouvelles technologies de combustion flexibles, avec des émissions quasi nulles de polluants.

• Simulation numérique d’écoulements réactifs turbulents.

• Quantification de l’incertitude dans la dynamique des fluides numérique.

Le professeur Parente est l’auteur de plus de 60 articles dans des revues à comité de lecture (facteur h de 18, plus de 1200 citations), environ 100 contributions à des conférences internationales, 4 contributions de livres et 1 brevet. Il a récemment reçu une prestigieuse « ERC starting grant » pour son projet VADEMECOM. Ce projet vise à stimuler le développement de technologies de combustion modernes et efficaces, au moyen de modèles précis et adaptatifs. En janvier 2015, il a fondé avec le Professeur Contino, le groupe BURN (burn-research.be), composé de 7 professeurs à temps plein et de plus de 40 chercheurs (doctorants et post-doctorants), dans le but de développer une recherche de classe mondiale dans la combustion numérique et expérimentale.

Le Professeur Parente a un large éventail de collaborations nationales et internationales, indiquant ainsi l’étendue et l’intérêt de ses activités de recherche. Cela se traduit par son implication dans plusieurs projets de recherche et son réseau avec les instituts de recherche les plus renommés dans le domaine de la combustion. Il convient en particulier de mentionner son implication dans l’Action CLEAN-Gas Marie Skłodowska-Curie (www.clean-gas.polimi.it) avec l’Université polytechnique de Milan, l’Université de Darmstadt et la Centrale Supélec, et sa participation à la COST Action SMARTCAT (www.smartcats.eu), en tant que représentant officiel de la Région wallonne et responsable du groupe de travail sur l’utilisation des vecteurs énergétiques Intelligents (VEI) à grande échelle. Le financement reçu par le groupe BURN depuis 2010 comprend plus de 15 projets de recherche, dotés d’un budget global de plus de 7 millions d’euros. Le Professeur Parente supervise ou codirige actuellement 2 chercheurs postdoctoraux, 20 doctorants, dont 14 en cotutelle avec des partenaires européens et internationaux.

Le projet proposé ici présente de nombreuses synergies avec les recherches en cours et pourrait tirer pleinement parti des connaissances, des ressources et du réseau disponibles dans le groupe. Le groupe dispose notamment de moyens expérimentaux (banc d’essai de four, banc moteur, banc de turbine à gaz, outils avancés de diagnostic et de mesure, installations informatiques) d’une valeur dépassant les 3M €.

IBM Faculty Award décerné au Pr. Jean-François Raskin

 jfraskinL’IBM Faculty award 2014 a été décerné au Pr. Jean-François Raskin pour ses contributions essentielles à la recherche sur la vérification assistée par ordinateurs. Le Pr. Jean-François Raskin développe en effet de nouveaux modèles mathématiques quantitatifs et hybrides pour les systèmes informatiques embarqués. Pour en savoir plus sur son projet

Les preuves mathématiques pour assurer la correction des systèmes informatiques embarqués et d’intelligence artificielle
Jean-François Raskin

Développement de nouveaux modèles mathématiques quantitatifs et hybrides pour les systèmes informatiques embarqués, d’intelligence artificielle et l’analyse de la dynamique des systèmes biologiques.

Dernières nouvelles:

  • L’équipe du Pr. Raskin est partenaire du projet « Verifying Learning Artificial Intelligence Systems » du programme interuniversitaire Excellence of Science 2017-2021 avec des   équipes de la KULeuven et de l’Université de Namur.
  • Le Pr. Jean-François Raskin est élu par ses pairs dans le « working group 2.2 » de l’International Federation for Information Processing.
  • L’équipe du Pr. Jean-François Raskin remporte une Action de Recherche Concertée Advanced 2016-2021
  • Pr. Jean-François Raskin reçoit un mandat de Professeur Francqui pour les années 2015-2018
  • Pr. Jean-François Raskin is awarded with the 2014 IBM Faculty Award
  • Pr. Jean-François Raskin is awarded with the 2014 the silver medal of the Kurt Gödel Society for his prototype of  automatic synthetis

Biographie

Né en 1972. Docteur en Sciences des Facultés Universitaires Notre-Dame de la Paix (Namur), Post-doctorat à UC Berkeley et au Max-Planck Institute de Saarbrücken. Professeur et ancien Président du Département d’Informatique de la Faculté des Sciences de l’ULB. Il a été notamment Professeur invité à l’Ecole Polytechnique Fédérale de Lausanne et à L’Ecole Normale Supérieure de Cachan.

Cliquez ici pour lire davantage à ce propos

Le prof. J-F. Raskin fait partie des meilleurs chercheurs mondiaux dans le domaine de la vérification assistée par ordinateur. Il est titulaire de bourses et financements prestigieux, notamment un European Research Council Starting Grant (2011). Il a coordonné au niveau européen et national des projets d’ampleur dont notamment le projet GASICS de la European Science Foundation sur la théorie des jeux pour le développement de systèmes informatiques complexes.

Projet

1. APPLICATIONS COMPLEXES ET LOGICIELS CORRECTS

Screen Shot 2013-12-05 at 18.06.04

Aujourd’hui, de nombreuses applications complexes et critiques, telles que l’assistance au pilotage d’un avion ou la régulation du rythme cardiaque par un pacemaker, sont mises en œuvre à l’aide de programmes informatiques.

Pour ces applications critiques, il est primordial de s’assurer que le logiciel construit est correct.

Ecrire un logiciel correct est une tâche difficile. Un logiciel peut en effet comporter plusieurs centaines de milliers de lignes de code et une seule erreur dans un programme peut avoir des conséquences désastreuses.

Malheureusement,  il est encore plus difficile de prouver (mathématiquement) qu’un logiciel ne contient aucune erreur.  Aussi, des recherches sont menées pour concevoir des algorithmes, et donc des programmes informatiques, capables de construire des preuves de correction.

Notre projet de recherche se situe précisément dans le domaine fascinant de la « vérification assistée par ordinateur » (V.A.O). Dans ce cadre, nous développons de nouveaux modèles mathématiques et l’algorithmique nécessaire à leur analyse automatique.

2. AU-DELA DU MODELE BOOLEEN : EXTENSIONS QUANTITATIVES ET MODELES HYBRIDES

Screen Shot 2013-12-05 at 18.06.13Les modèles et les notions de corrections développés jusqu’à présent dans le domaine de la vérification assistée par ordinateur peuvent être qualifiés de « Booléens ». En effet, ils permettent d’établir qu’un programme est correct ou non. Ils ne permettent pas d’établir des critères de qualité plus fins.

Par exemple, un logiciel pour pacemaker doit opérer des choix en « temps réel » en fonction du comportement du cœur du patient. Si des arythmies sont détectées, le logiciel commande l’émission et l’intensité d’impulsions électriques qui auront pour effet de rétablir un rythme cardiaque plus adéquat.

La correction du logiciel qui pilote les impulsions électriques est donc primordiale. Au surplus, il faut trouver une solution qui soit la plus parcimonieuse possible. En effet, afin de garantir une qualité de vie optimale au patient, le pacemaker ne doit intervenir que si cela est nécessaire.

Pour modéliser cette notion d’optimalité, nous avons donc besoin de modèles mathématiques plus riches qui permettent de modéliser des quantités (comme la fréquence des interventions du pacemaker) et de raisonner sur ces dernières.

3.LE PROJET :  DEFINIR UNE THEORIE SOLIDE POUR DEVELOPPER DE NOUVEAUX OUTILS POUR LA VERIFICATION DE SYSTEMES COMPLEXES

Screen Shot 2013-12-05 at 18.06.25Pour développer ces nouveaux outils informatiques, nous avons besoin de faire des progrès dans notre compréhension des propriétés fondamentales des nouveaux modèles mathématiques envisagés et de leurs algorithmes d’analyse.

Théorie des automates et les logiques associées

La théorie des automates finis est un des socles fondamentaux sur lesquels reposent les algorithmes de vérification de propriétés de correction des logiciels embarqués.

Depuis quelques années, des travaux de recherche visent à étendre ces théories avec des aspects quantitatifs : soit en ajoutant des variables à valeurs numériques aux automates finis pour contrôler plus finement leur exécution, soit en considérant les automates non plus comme définissant une fonction Booléenne mais une fonction dont la valeur est prise dans un domaine  infini, comme les réels ou les rationnels par exemple.

Ces modèles de calcul plus riches permettent la modélisation de systèmes informatiques plus complexes.

Pourtant, de nombreuses questions fondamentales sur ces formalismes restent ouvertes : quelle est l’expressivité des différentes classes d’automates? quelles sont les logiques équivalentes aux automates?  quelles nouvelles notions de corrections peuvent être formalisées? ces formalismes sont-ils robustes ?

Algorithmes ou semi-algorithmes pour les modèles quantitatifs.

Les problèmes de vérification que nous devons considérer sur les modèles quantitatifs sont généralement plus complexes que pour les modèles classiques, d’un point de vue conceptuel mais également d’un point de vue calculatoire.

Plusieurs problèmes importants (comme le problème d’inclusion de langages) ont déjà été montrés indécidables pour les extensions quantitatives. D’autres problèmes restent décidables mais le coût de leur résolution est très nettement accru.

Néanmoins, pour les problèmes indécidables, il convient de comprendre la frontière de décidabilité et également de proposer des solutions approchées -basées par exemple sur l’interprétation abstraite- ou encore des semi-algorithmes symboliques afin d’obtenir des solutions qui ont un intérêt dans la pratique.

Pour obtenir des résultats significatifs dans ce domaine, nous avons donc besoin de faire des avancées majeures dans notre compréhension des problèmes situés à la frontière de l’informatique théorique et des mathématiques. Ces avancées seront la base de nouveaux outils informatiques d’analyse de systèmes complexes.

Les systèmes « hybrides »

Un système informatique embarqué est typiquement un système « hybride » puisqu’il vise à contrôler un processus physique -dont l’évolution est continue- par l’intermédiaire de décisions discrètes qui auront en retour un effet sur l’évolution continue du système.

Les systèmes biologiques sont également des systèmes de nature hybride. En effet, la concentration d’une protéine évolue de façon continue dans le temps alors que l’activation ou l’inhibition d’un gène résultant dans le changement de mode de fonctionnement biochimique d’une cellule est typiquement un événement discret.

Ce dernier point est important pour comprendre l’une des applications que nous visons.

4. APPLICATIONS VISEES : systèmes embarqués  et  modélisation des systèmes biologiques

VERS LA CERTIFICATION DES SYSTEMES EMBARQUES

Les systèmes informatiques embarqués sont une cible privilégiée pour ces nouveaux modèles mathématiques. Les nouveaux outils de vérification que nous développerons permettront une conception plus rigoureuse de ces systèmes informatiques embarqués. Ils permettront également de certifier leur correction à l’aide de preuves mathématiques.

Il y a actuellement une demande importante pour des avancées en vérification assistée par ordinateur dans des domaines aussi importants que l’informatique pour les applications spatiales, l’aéronautique, les équipements médicaux, les microprocesseurs, la sécurité nucléaire, etc.

MACHINE LEARNING ET SYSTEMES D’INTELLIGENCE ARTIFICIELLE

Recently, artificial intelligence (AI) has made substantial progresses in a series of applications domains: driverless cars, IBM’s Watson program, deep learning techniques for playing Go, are popular examples. But those recent AI’s progresses also trigger important new questions about the future: what AI systems will be able to do, what they should be allowed to do, and what the implications are for humans.

The ongoing debate has motivated the AI and computer science communities to investigate what constitutes “safe AI” and whether it is possible to develop such “safe AI” systems that can be trusted. Quoting Dr. Guruduth Banavar, Vice President of IBM Research: ”Artificial intelligence is not without its risks. But we believe the risks are manageable. And that the far greater risk would be to stifle or otherwise inhibit the development of a technology with the potential to greatly improve the quality of life around the world. […] To reap the societal benefits of AI systems, we will first need to trust it. […] Trust is built upon accountability. As such, the algorithms that underpin AI systems need to be as transparent, or at least interpretable, as possible.” In this project, we want to push this research agenda and we claim that AI systems must also be mathematically verifiable. The trust in system is particularly important for systems that are safety critical (this is the case for example for driverless cars).

Our project aims at providing theoretical foundations and algorithmic methods to support the design of safer artificial intelligence systems that use learning. Tackling this important, timely and ambitious research agenda, requires on the one hand, extending verification models, and design methodologies, and verification algorithms to cover AI systems that learn, and on the other hand, improving learning methods so that they provide guarantees that can be used in verification.

As a starting point for our research, we will build on mathematical models and algorithms that we have developed in a recent project founded by European Research Council. In the context of this project, we have generalized transition systems and automata – models of computation in the classical approach to verification – by the more flexible, and mathematically deeper, game-theoretic and stochastic frameworks.

We intend to pursue this research work in collaboration with researchers active in the area of learning and articifical intelligence. To this aim, we have recently established a collaboration with a world renowed team at KULeuven.

MODELISATION DES SYSTEMES BIOLOGIQUES

Notre projet inclut également un pan novateur qui vise spécifiquement la recherche en biologie.

En effet, les modèles mathématiques hybrides que nous développons sont également bien adaptés à la modélisation et l’analyse de la dynamique des systèmes biologiques.

Certes, les biologistes possèdent des outils performants pour la modélisation de leurs systèmes, mais ces outils sont basés principalement sur les équations différentielles, soit les mathématiques du continu.

Malgré une réelle demande provenant des biologistes pour des outils de modélisation hybrides, plus adaptés à la nature -même des systèmes qu’ils étudient, les avancées dans ce domaine sont encore timides : seulement une dizaine de laboratoires au monde travaillent sur cette question.

Pour progresser de manière significative dans ce domaine, nous collaborerons avec des collègues spécialisés en biologie théorique, notamment via l’engagement d’un post-doc formé à la modélisation des systèmes biologiques qui pourra nous fournir des études de cas réalistes sur lesquels nos nouveaux formalismes mathématiques pourront  être appliqués.

Notre recherche permettra donc de faire avancer la modélisation de la dynamique des systèmes biologiques en la rendant plus simple, plus efficace et en somme, plus proche de la réalité.

 

5. GROUPE DE METHODES FORMELLES et VERIFICATION ASSISTEE PAR ORDINATEUR (ULB)

Screen Shot 2013-12-05 at 18.06.34Le groupe « Méthodes Formelles et Vérification Assistée par Ordinateur » a été créé en 2000 au sein du Département d’Informatique de la Faculté des Sciences de l’ULB.

Le groupe est la référence belge dans le domaine de la vérification assistée par ordinateur (V.A.O.) et de nombreux chercheurs étrangers visitent régulièrement Bruxelles pour collaborer avec le groupe du Prof. Jean-François  Raskin.

Le groupe coordonne par ailleurs le Centre Fédéré en Vérification  du FNRS qui rassemble toutes les équipes universitaires belges actives dans le domaine de la V.A.O.

Le groupe est également très actif dans le concert de la recherche européenne et a participé  (comme membre ou coordinateur)  à plusieurs projets de recherche européens d’envergure : FP7 NoE, FP7 STREP, ESF Eurocores, ESF Networks, COST Actions, etc.

Dans les prochains mois, le groupe du Pr. Raskin participera également à un nouveau projet de recherche européen, financé par l’action Future and Emerging Technologies du 7e Programme Cadre qui visera à mettre au point de nouveaux outils de développement de systèmes informatiques complexes à l’aide de la théorie des jeux.

Le groupe a une expertise reconnue dans les thématiques suivantes: systèmes hybrides et temps-réels, systèmes à espaces d’états infinis, model checking, algorithmes symboliques basés sur les antichaînes, algorithmes de synthèse basés sur la théorie des jeux.

Budget sur 4 ans

RESSOURCES HUMAINES

Deux chercheurs post-doctorants avec une expérience de recherche en informatique théorique travailleront sur les fondations mathématiques et algorithmiques.

Ils développeront également des outils de vérification pour les nouveaux formalismes.

Ces chercheurs collaboreront avec un biologiste ayant une expertise en modélisation des systèmes biologiques pour appliquer les théories et outils développés.

FONCTIONNEMENT ET EQUIPEMENTS

Afin de développer l’expertise en modélisation des systèmes biologiques, des échanges scientifiques de moyenne durée seront organisés chez des collègues étrangers spécialisés dans la modélisation de tels systèmes à l’aide d’automates (IST Austria, UPenn et UC Berkeley).

Par ailleurs, des ordinateurs performants seront nécessaires au développement des outils informatiques pour l’analyse de modèles mathématiques complexes. Ces équipements seront également utilisés pour l’analyse de modèles de systèmes embarqués et de systèmes biologiques.

L’analyse de ces modèles requiert des ressources de calcul importantes et dédiées.

Cliquez ici pour dérouler le tableau du budget

BESOINS MONTANT
RESSOURCES HUMAINES
1 biologiste 350.000 €
2 informaticiens/mathématiciens 700.000 €
FONCTIONNEMENT ET EQUIPEMENTS
Echanges et séjours scientifiques 60.000 €
Matériel informatique 30.000 €
TOTAL 1.140.000 €

Autre

La fiche du projet disponible au format PDF ici.

« Swarm intelligence » et robotique en essaim
Marco Dorigo

Interview de Marco Dorigo dans « les Chercheurs d’Avenir. »

La vidéo a remporté la compétition qui a mis l’équipe de Marco Dorigo face à des équipes prestigieuses provenant des institutions suivantes: NASA, MIT, Carnegie Mellon University, George Mason University, Technische Universitaet Munchen, University of California, Georgia Institute of Technology.

Dernières nouvelles:

  • Nouveau paradigme de coordination des systèmes multi-robots (Nature Communications, sept. 2017)

Il s’agit d’une avancée très significative dans le contrôle de systèmes multi-robots. En effet, auparavant, au sein d’un système multi-robots, chaque robot était indépendant et le paradigme de coordination était l’auto-organisation. Ceci implique une coordination stricte entre les robots, comme par exemple, dans le robot metamorphique (essaim composé de robots indépendants).  

Dans ce nouvel article, le Prof. Marco Dorigo prouve qu’il est possible d’obtenir cette coordination stricte via le concept de “mergeable nervous system”. 

Il a en effet montré qu’il est désormais possible à des robots de transférer toutes leurs informations/expériences et d’abandonner leur indépendance (merging) à un robot donné qui prendrait alors le contrôle de tout l’essaim.

https://www.nature.com/articles/s41467-017-00109-2

  • Le Prof. Marco Dorigo reçoit le IEEE Evolutionary Computation Pioneer Award 2016 pour ses recherches en intelligence artificielle.
  • Le Prof. Marco Dorigo reçoit le 21 avril 2015 les Insignes de Docteur Honoris Causa de l’Université de Pretoria.
  • Le Prof. Marco Dorigo reçoit le 2015 IEEE Frank Rosenblatt Award « pour ses contributions aux fondations de la swarm intelligence »
  • Le projet coordonné par Marco Dorigo « Swarmanoid » remporte le prix vidéo 2011 de l’ Association for Advancement of Artificial Intelligence et le Prix Wernaers 2012 pour la recherche et la diffusion des connaissances.
  • Marco Dorigo bénéficie de l’ ERC Advanced Grant 2010.

Biographie de Marco Dorigo

dorigo

Marco Dorigo, né en 1961. Docteur en Systems and Information electronic Engineering de l’Ecole Polytechnique de Milan (1992), Agrégé de l’Enseignement Supérieur de l’ULB (1995).

En savoir plus sur Marco Dorigo

Directeur de recherche au FNRS, Co-Directeur de l’Institut de Recherches Interdisciplinaires et de Développements en Intelligence Artificielle (IRIDIA, ULB), Rédacteur en chef de la revue « Swarm Intelligence » et éditeur associé et membre du comité éditorial de nombreuses revues scientifiques internationales. Inventeur de la méthode d’optimisation « ant colony optimization » basée sur le comportement de recherche de nourriture des fourmis et co-fondateur du domaine de recherche portant sur la « swarm intelligence ». Il a été distingué par de nombreux prix et financements prestigieux dont notamment : le Association for the Advancement of Artificial Intelligence video award (2011, 2007), l’ERC Advanced Grant (2010), le Cajastur International Prize (2007), le prix quinquennal du FNRS (2005), le Marie Curie Excellence Award (2003), le prix Marco Somalvico pour l’intelligence artificielle (1996).

Le projet

L'équipe de recherche du laboratoire du Dr. Marco Dorigo.

L’équipe de recherche du laboratoire du Dr. Marco Dorigo.

1. Intelligence artificielle et ingénierie robotique en essaim.

Le domaine de recherche du Pr. Marco Dorigo est l’ingénierie robotique en essaim, également appelée « swarm bot ».

Autrement dit la conception et la mise en oeuvre de système d’intelligence artificielle pour résoudre de multiples problèmes pratiques. Je m’inspire des modèles observés par les biologistes d’après l’étude des comportements des animaux sociaux, en particulier des fourmis pour créer des algorythmes qui vont permettre de programmer les robots.

2. Le « swarm bot » ou une collectivité de robots auto-organisés

Qui dit « swarm bot » dit collectivité de robots.

L’idée est de déveloper une légion de petits robots qui peuvent s’auto-assembler, interagir entre eux afin de se répartir une tâche à accomplir. Chacun fonctionnant à la fois en groupe et indépendamment les uns des autres. L’avantage réside dans le fait qu’ensemble, ils sont plus efficaces. Si l’un d’entre eux tombe en panne, les autres restent fonctionnels. Un aspect non négligeable lors d’une mission spatiale par exemple. En groupe, ils sont capables de franchir un obstacle, de se déplacer en terrain accidenté ou de porter une charge plus lourde.

Robots indépendants capables de s'assembler afin d'accomplir des tâches complexes

Robots indépendants capables de s’assembler afin d’accomplir des tâches complexes

3. Applications visées

A terme, on peut imaginer des applications telles que des interventions de secours lors de l’effondrement d’un immeuble ou l’envoi de robots dans un environnement hostile telle qu’une zone hautement radioactive, là où l’être humain ne peut opérer ou se déplacer.

Une "anarchytecture" accomplissant une mission et qui se désassemblera une fois la tâche achevée

Une « anarchytecture » accomplissant une mission et qui se désassemblera une fois la tâche achevée

4. L’avancée des recherches

Ce volet de la robotique est extrêmement novateur.

Aussi à l’heure actuelle, malgré les avancées significatives provenant notamment grâce à la recherche à l’ULB, il faut encore développer une méthodologie rigoureuse pour que le fruit de ces recherches puisse être appliqué.

Autres informations

Connaître le projet de Marco Dorigo en détails (en anglais) : Le projet en PDF

Quelques liens :

  • Marco Dorigo dans The Economist, le 14 août 2010 : Riders on a swarm © The Economist 2010
  • Marco Dorigo reçoit un prestigieux ERC Advanced Grant 2010 (en anglais) : cliquez ici

Budget (English)

The current expertise available at Prof. Dorigo’s lab covers all the necessities of the project except for the hardware construction of the robots. Accordingly, the main part of the requested funding is for the creation of a professorship in mechatronics oriented to the design and construction of advanced micro-robotic systems.  Additional funding is necessary for setting up a mechatronics lab. The goal is to fund the new chair for a period of five year and to have then the ULB taking over and provide the necessary funding for a permanent professor position. The necessary budget is estimated to 2,8 million of EUR over a period of 5 years, organized as follows:

Personnel

One senior researcher at professor level. Here the goal is to hire a mechatronics expert with proved research record in micro-robotics. The offered position will be “tenure track”, that is, it will become a permanent position after the end of the project.

One technician for the new mechatronics laboratory.

One postdoctoral researcher with a PhD in autonomous robotics and mechatronics.

One PhD student with a master in robotics.

Consommables

This concerns the material necessary for the construction of the robots.

Equipments

The set up of the new mecathronics laboratory will be the main investment. Additionally, computational nodes for running simulations will be necessary.

Develop budget table

Needs Operational cost (PER YEAR) Investment
New chair (professorship) in Mecathronics 120000
Salary for technician 65000
Salary for one post-doc 75000
Fellowship for PhD student 34000
Material for building robots 55000
Setup of new laboratory 1000000
Computational nodes 55000
Total over 5 years 1745000 1055000

The Marco Dorigo’s Projet explained in English

Click here to obtain the English version

Anarchytecture: Self-organizing Growing Artifact

The vision

To date, building and construction have always been centralized processes. Central control is implicit in our idea of architecture—the art or science of building. Indeed, the word architecture derives from the Greek arkhitekton (arkhi, chief + tekton, builder), i.e., the chief builder. This project introduces the original idea of artifacts that grow autonomously. They are built as the result of a self-organized process, that is, a process in which there is no leader, no chief builder. Hence the name of the project: Anarchytecture. As customary with names of Greek derivation, the prefix ‘an-’ (privative alpha) expresses negation or absence: Construction without a leader.

The Anarchytecture project will investigate the situation in which humans are taken out of the loop and artifacts build themselves autonomously: they self-build.

The fundamental breakthrough targeted by the Anarchytecture project is the development of techniques for growing and maintaining complex structures using a collection of self-organized autonomous robots as building blocks. In the long term vision that motivates the Anarchytecture project, objects are able to self-build, self-reconfigure, self-repair, and eventually self-dispose and recycle once no longer needed. In other words, we imagine artifacts whose life-cycle is reminiscent of that of living systems. While it is possible to imagine a society in the distant future where all artifacts self-build, relevant applications in the short/medium term might include building in hostile environments where human intervention is difficult or impossible, such as outer space or the ocean floor.

The available expertise

Prof. Dorigo and his team are world leaders in the design of artificial swarm intelligence systems, that is, systems composed of many individuals that coordinate using decentralized control and self-organization. In particular, swarm intelligence focuses on the collective behaviors that result from the local interactions of the individuals with each other and with their environment. Examples of systems studied by swarm intelligence are colonies of ants and termites, schools of fish, flocks of birds, herds of land animals. Prof. Dorigo is reknown for his design and implementation of artificial swarm intelligence systems to tackle optimization and control problems.

In the last 10 years Prof. Dorigo has focused on the design of physical systems composed of many autonomous robots capable of self-assembling into bigger mobile structures capable of performing tasks that are beyond the capabilities of the single robots.  These robots, known as swarm-bots, are the result of some cooperative projects that he coordinated within the “Future and Emerging Technologies” program of the European Commission. Swarm-bots can be seen as an initial, proof of principle of the feasibility of the ideas proposed in the Anarchytecture project.

The necessary tools

Anarchytecture is a multidisciplinary project that will build on the extensive experience of Prof. Dorigo’s group in the design and implementation of distributed, self-organizing swarms of autonomous robots. A multidisciplinary project like Anarchytecture requires the collaboration of scientists and engineers with different background and skills. In particular, it is necessary to be able to exploit the principle of swarm intelligence to propose a high-level design of the anarchytecture distributed system, to design and build the hardware robotic components of the anarchytecture, and to design and implement the control algorithms and communication strategies that let the anarchytecture components self-organize. In addition to these activities, it is necessary to develop a simulation environment where to fast-prototype the hardware ideas before the actual robots are built, and where to test the control algorithms and communication policies before running experiments with the real robots.

The funding requested

The current expertise available at Prof. Dorigo’s lab covers all the necessities of the project except for the hardware construction of the robots. Accordingly, the main part of the requested funding is for the creation of a professorship in mechatronics oriented to the design and construction of advanced micro-robotic systems.  Additional funding is necessary for setting up a mechatronics lab. The goal is to fund the new chair for a period of five year and to have then the ULB taking over and provide the necessary funding for a permanent professor position. The necessary budget is estimated to 2,8 million of EUR over a period of 5 years, organized as follows:

Personnel

One senior researcher at professor level. Here the goal is to hire a mechatronics expert with proved research record in micro-robotics. The offered position will be “tenure track”, that is, it will become a permanent position after the end of the project.

One technician for the new mechatronics laboratory.

One postdoctoral researcher with a PhD in autonomous robotics and mechatronics.

One PhD student with a master in robotics.

Consommables

This concerns the material necessary for the construction of the robots.

Equipments

The set up of the new mecathronics laboratory will be the main investment. Additionally, computational nodes for running simulations will be necessary.

budget_dorigo

Far reaching effects of the project

Making it possible the demonstration of the ideas behind the Anarchytecture project, that is the creation of objects that are able to self-build, self-reconfigure, self-repair, and eventually self-dispose and recycle once no longer needed, will have far reaching effects. It will in fact contribute not only to robotics research, but also to computer science, with the development of novel algorithmic approaches, and to architecture, with the demonstration of a new way of designing and realizing structures that are no longer static, but that can self-build and self-reconfigure to respond to changes in the environment in which they are located and of the function that they are asked to accomplish.

By this project the ULB will become the home of a novel school of thought that reunites computer science, artificial intelligence, robotics and architecture to propose a novel way of designing and implementing self-building artifacts.