Meta indique que ces stickers générés par l’IA ne sont qu’un début et que la société travaille sur une série de fonctionnalités IA connexes pour ses applications sociales.
Durant une grande présentation interne la semaine dernière au sein de Meta, le vice-président chargé de l’IA, Ahmad Al-Dahle, a déclaré aux employés que la société allait tester son modèle IA de génération d’images pour permettre aux utilisateurs de l’application Messenger de créer des stickers à partir d’invites textuelles. Les employés du géant du web auront accès à cette fonctionnalité en interne avant qu’elle ne soit mise à la disposition du grand public.
Meta se lance timidement dans l’IA générative, mais a des projets beaucoup plus ambitieux…
Le vice-président chargé de l’IA chez Meta a déclaré : « Grâce aux stickers générés par l’IA, nos utilisateurs disposent d’un nombre infini d’options en matière d’expression personnelle, de représentations culturelles et même de pertinence des tendances », avant de préciser : « Bien entendu, les stickers ne sont que la partie émergée de l’iceberg ». Le responsable a ajouté que Meta travaillait également sur des modèles IA qui pourront « transformer n’importe quelle image de n’importe quelle manière ».
Mark Zuckerberg avait annoncé en février dernier la mise en place au sein de Meta d’une équipe dédiée pour développer et intégrer des outils IA dans ses produits. Le patron du géant du web avait alors indiqué que cette équipe se concentrerait en particulier sur des expériences IA avec du texte, comme le chat avec Messenger et WhatsApp, des expériences avec les images comme « des filtres Instagram créatifs », ainsi que « des expériences vidéo et multimodales ».
Un peu plus tard au mois d’avril, Mark Zuckerberg avait déclaré aux investisseurs que Meta souhaitait rendre accessibles « des agents d’IA à des milliards de personnes » et avait réitéré les objectifs de lancer des fonctionnalités d’IA générative au sein de WhatsApp, Facebook, Messenger et Instagram.
Mais le projet le plus ambitieux du géant du web actuellement est d’approfondir son modèle de langage LLaMA. La société a récemment annoncé un nouveau modèle d’IA open source qui combine six types de données des données différentes comme des textes, des données audio et visuelles, ou encore des relevés de température et de mouvement. Ce modèle baptisé ImageBind n’est pour le moment qu’un projet de recherche, sans applications pratiques ou grand public immédiates, mais il laisse entrevoir un futur potentiel où les systèmes d’IA génératives seront capables de créer des expériences immersives et multisensorielles.
very information article