— Facebook

Celebrating Five Years of AI Breakthroughs from Our Montreal Research Lab

French translation (Lire la version française)

Artificial intelligence (AI) is at the core of our work, helping to improve our existing products and serving as a foundation for innovative new applications. As we build for the metaverse — the next iteration of the internet which we believe will have a significant impact on education, health care, the economy and beyond — the Canadian AI ecosystem is already playing a leading role in driving research breakthroughs that will one day make it a reality. 

Five years ago, we opened our Montreal Fundamental AI Research (FAIR) Lab (formerly known as Facebook AI Research) to drive research in AI and contribute to Montreal’s world leading AI ecosystem. Since then, our Canadian team of researchers has worked on some of the biggest breakthroughs in AI that have benefited communities in Canada and abroad — from developing more diverse and inclusive AI models for the research community to improving health care accessibility and patient care

Led by Dr. Joelle Pineau, Managing Director of Fundamental AI Research at Meta, the Montreal FAIR Lab committed $7 million (USD) in funding to support the Canadian AI ecosystem and establish partnerships with world-leading Canadian institutions, including the Canadian Institute for Advanced Research (CIFAR), the Montreal Institute for Learning Algorithms (MILA), McGill University and Université de Montréal. As a result, we’ve supported student learning and the development of Canadian AI tech talent, established two Facebook-CIFAR AI research chair positions and helped create high-performance computing capability for MILA to further advance the Montreal research community. 

Our goal in opening the Montreal FAIR Lab was to give the best AI talent in Canada the freedom to design innovative solutions to real-world problems, and to share them with the broader academic community. At FAIR Labs, we take an open-science approach to research, open-sourcing code and publishing papers that both leverage and contribute to the broader scientific community. Researchers, developers and businesses outside of Meta can utilize the research to learn about, build upon and inform their own work. 

Building Diverse AI Models to Make the Metaverse More Accessible

Computer vision systems identify objects in images and will help power metaverse technologies, like augmented reality (AR) glasses, so that they can understand the world as people do. For example, imagine wearing AR glasses that show you how to make a recipe. They’ll need to work well in kitchens not just in Montreal, but also in other places around the world. This means recognizing many different variations of everyday objects like stoves or spices. 

Traditionally, computer vision systems have been trained on examples from North America and wealthy countries in Europe, so they often don’t work well for images outside of these places. However, our FAIR Montreal team has brought new advances to SEER (SElf-SupERvised), our groundbreaking self-supervised computer vision research model. These advances have made the model more powerful, robust and fairer, allowing SEER to deliver strong results for images from places around the world. 

While this computer vision model is purely a research model for now, it will help Meta AI build better computer vision systems for products used by billions of people around the world, including the metaverse. To facilitate further research and progress, we’ve publicly released the model and shared new technical details about how it works as part of our commitment to open science.

Building AI That Improves Patient Care

Magnetic resonance imaging (MRI) is often the best tool for diagnosing problems with organs, muscle and other soft tissues in the human body. However, it takes a significant amount of time to complete, limiting how many people can be scanned each day. 

To solve this problem, Montreal FAIR researchers partnered with doctors and medical imaging experts at NYU Langone Health to develop the fastMRI AI model, which creates complete MRI images from far less raw data and has the potential to significantly speed up the scanning process. 

Our research team is working to extend these results to other vital organs, including the brain. FastMRI has also published its data, models and code so that other researchers can build on their work and contribute new ideas to benefit millions of people around the world. 

Building AI That Unlocks New Creative Tools For Creators

Image generation models are used to create new visuals, whether photorealistic pictures or abstract collages, but these models have been limited to images of objects or scenes that the model is familiar with because the object or scene is included in its training data.

Our Montreal research team has created a new and simple image generation model, Instance-Conditioned GAN (IC-GAN), that creates high-quality, diverse images of things it has never seen before. For example, the IC-GAN model can create image combinations such as camels surrounded by snow. We’ve open-sourced the model so that it can lead to AI models that generate images with more flexibility, accuracy and efficiency than ever before.

These new capabilities can help AI researchers create new visual examples to augment data sets with  diverse objects and scenes and eliminate bias, while artists and creators are able to generate more expansive AI-generated content. 

As creators build new experiences for the metaverse, we hope that image generation models will help fuel creativity and unlock unforgettable experiences for people. Our hope is that within the next decade, the metaverse will host hundreds of billions of dollars of digital commerce, change the way we work and support jobs for millions of creators and developers. None of this will be possible without the work of AI researchers in Canada and across the world who are building new capabilities that will power future technologies.

French Translation

À retenir:

  • Nous célébrons le cinquième anniversaire de notre laboratoire FAIR de Montréal, qui a été créé pour stimuler la recherche fondamentale en intelligence artificielle (IA) par une approche de recherche ouverte.
  • Notre équipe canadienne d’IA a contribué à de nombreuses percées au cours des cinq dernières années, notamment en construisant des modèles d’IA plus diversifiés, en accélérant le processus de l’imagerie par résonance magnétique (IRM) et en produisant de nouveaux outils créatifs.
  • Les progrès réalisés dans le domaine de l’IA font partie intégrante de la construction du métavers. À cet effet, l’écosystème canadien de l’IA fait déjà de grands progrès pour permettre cette nouvelle ère de l’informatique.

L’IA est au cœur de notre travail, elle contribue à améliorer nos produits existants et sert de base à de nouvelles applications novatrices. Alors que nous nous préparons au métavers, soit la prochaine itération d’Internet qui, selon nous, aura un impact considérable sur l’éducation, les soins de santé, l’économie et bien plus encore, l’écosystème canadien de l’IA joue déjà un rôle de chef de file dans les percées de la recherche qui en feront un jour une réalité.

Il y a cinq ans, nous avons ouvert notre laboratoire de recherche fondamentale sur l’IA (FAIR) à Montréal (anciennement connu sous le nom de Facebook AI Research) afin de stimuler la recherche dans ce domaine et de contribuer à l’écosystème de pointe de l’IA à Montréal. Depuis ce moment, notre équipe de chercheurs canadiens a travaillé sur certaines des plus grandes percées en IA qui ont profité aux communautés au Canada et à l’étranger, notamment du développement de modèles d’IA plus diversifiés et inclusifs pour la communauté des chercheurs à l’amélioration de l’accessibilité des soins de santé et des soins aux patients.

Dirigé par la professeure Joelle Pineau, directrice générale de la recherche fondamentale en IA chez Meta, le laboratoire FAIR de Montréal a engagé 7 millions de dollars (USD) de financement pour soutenir l’écosystème canadien de l’IA et établir des partenariats avec des institutions canadiennes de premier plan, notamment l’Institut canadien de recherches avancées (ICRA), l’Institut des algorithmes d’apprentissage de Montréal (MILA), l’Université McGill et l’Université de Montréal. Nous avons ainsi soutenu l’apprentissage des étudiants et le développement de talents canadiens dans le domaine de l’IA, créé deux chaires de recherche en IA Facebook-CIFAR et contribué à créer une capacité de calcul de haute performance pour le MILA afin de faire progresser la communauté des chercheurs de Montréal.

En ouvrant le laboratoire FAIR de Montréal, nous avions comme objectif de donner aux meilleurs talents du domaine de l’IA au Canada la liberté de concevoir des solutions novatrices à des problèmes du monde réel, et de les partager avec la communauté universitaire au sens large. Au laboratoire FAIR, nous adoptons une approche scientifique ouverte de la recherche, avec un code ouvert et en publiant des articles qui tirent parti de la communauté scientifique au sens large et qui y contribuent. Les chercheurs, les développeurs et les entreprises en dehors de Meta peuvent utiliser la recherche pour s’informer et s’y appuyer, de même qu’éclairer leur propre travail.

Construire des modèles d’IA diversifiés pour rendre le Métavers plus accessible

Les systèmes de vision par ordinateur identifient les objets dans les images et contribueront à alimenter les technologies du métavers, notamment les lunettes de réalité augmentée (RA), afin qu’elles puissent comprendre le monde comme le font les gens. Par exemple, imaginez que vous portez des lunettes de RA qui vous montrent comment réaliser une recette. Elles devront bien fonctionner dans les cuisines, non seulement de Montréal, mais aussi d’autres endroits dans le monde. Par conséquent, il faut reconnaître de nombreuses variantes d’objets quotidiens comme les poêles ou les épices.

Traditionnellement, les systèmes de vision par ordinateur ont été entraînés sur des exemples provenant d’Amérique du Nord et des pays riches d’Europe, de sorte qu’ils fonctionnent souvent mal pour les images provenant d’ailleurs. Cependant, notre équipe au laboratoire FAIR de Montréal a apporté de nouvelles avancées en matière d’autocontrôle (de l’anglais SElf-SupERvised ou SEER), notre modèle de recherche révolutionnaire en vision par ordinateur autocontrôlé. Ces avancées ont rendu le modèle plus puissant, plus robuste et plus équitable, permettant au SEER de fournir des résultats solides pour des images provenant de lieux du monde entier.

Bien que ce modèle de vision par ordinateur soit purement un modèle de recherche pour le moment, il aidera Meta AI à construire de meilleurs systèmes de vision par ordinateur pour des produits utilisés par des milliards de personnes dans le monde, y compris le métavers. Pour faciliter la poursuite des recherches et des progrès, nous avons publié le modèle et partagé de nouveaux détails techniques sur son fonctionnement dans le cadre de notre engagement en faveur de la science ouverte.

Créer une IA qui améliore les soins aux patients

L’IRM est souvent le meilleur outil pour diagnostiquer les problèmes d’organes, de muscles et d’autres tissus mous du corps humain. Cependant, il faut beaucoup de temps pour le réaliser, ce qui limite le nombre de personnes pouvant être analysées chaque jour.

Pour résoudre ce problème, les chercheurs du laboratoire FAIR de Montréal se sont associés à des médecins et à des experts en imagerie médicale du Langone Health, de l’University de New York, pour développer le modèle d’IA fastMRI, qui crée des images IRM complètes à partir de beaucoup moins de données brutes et qui a le potentiel d’accélérer considérablement le processus d’analyse.

Notre équipe de recherche s’efforce d’étendre ces résultats à d’autres organes vitaux, dont le cerveau. On a également publié les données, les modèles et le code de fastMRI afin que d’autres chercheurs puissent s’appuyer sur ces travaux et apporter de nouvelles idées qui profiteront à des millions de personnes dans le monde.

Construire une IA qui débloque de nouveaux outils créatifs pour les créateurs

Les modèles de génération d’images sont utilisés pour créer de nouveaux visuels, qu’il s’agisse d’images photoréalistes ou de collages abstraits, mais ces modèles ont été limités à des images d’objets ou de scènes que le modèle connaît bien parce que l’objet ou la scène est inclus dans ses données d’apprentissage.

Notre équipe de recherche de Montréal a créé un nouveau modèle simple de génération d’images, le réseau antagoniste génératif conditionné par instance (de l’anglais Instance-Conditioned Generative Adversarial Network ou IC-GAN), qui crée des images de grande qualité et diversifiées de choses qu’il n’a jamais vues auparavant. Par exemple, le modèle IC-GAN peut créer des combinaisons d’images telles que des chameaux entourés de neige. Nous avons mis le modèle en libre accès afin qu’il puisse déboucher sur des modèles d’IA qui génèrent des images avec plus de souplesse, de précision et d’efficacité que jamais auparavant.

Ces nouvelles capacités peuvent aider les chercheurs en IA à créer de nouveaux exemples visuels pour enrichir les ensembles de données avec des objets et des scènes variés et éliminer les préjugés, tandis que les artistes et les créateurs sont en mesure de générer un contenu généré par l’IA plus étendu.

À mesure que les créateurs élaborent de nouvelles expériences pour le métavers, nous espérons que les modèles de génération d’images contribueront à alimenter la créativité et à faire vivre aux gens des expériences inoubliables. Nous espérons qu’au cours de la prochaine décennie, le métavers accueillera des centaines de milliards de dollars de commerce numérique, changera notre façon de travailler et créera des emplois pour des millions de créateurs et de développeurs. Rien de tout cela ne serait possible sans le travail des chercheurs en IA au Canada et dans le monde entier qui développent de nouvelles capacités qui alimenteront les technologies futures.

Source

What is your reaction?

0
Excited
0
Happy
0
In Love
0
Not Sure
0
Silly

Leave a reply

Your email address will not be published. Required fields are marked *