The « AI scientist », lancé par Sakana AI, pourrait révolutionner la recherche scientifique
Un article de L’Usine Digitale commente le lancement récent par la jeune pousse japonaise Sakana AI – en partenariat avec les universités d’Oxford et de Colombie-Britannique – du « AI Scientist », un modèle de langage capable de mener des recherches scientifiques. Présenté dans l’article « The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery », ce modèle pourrait automatiser certaines étapes nécessaires à une découverte scientifique et serait donc capable de générer des idées, de réaliser des expérimentations et de rédiger des articles scientifiques.
Sakana AI précise que des modèles sophistiqués ont déjà été utilisés pour aider les scientifiques dans des tâches telles que le remue-méninges ou l’écriture de code. Cependant, ces activités, dit-on, nécessiteraient toujours une supervision manuelle importante, ou sont fortement limitées à une tâche en particulier. C’est pourquoi, pour cette entreprise, l’un des grands défis de l’intelligence artificielle est de développer des agents capables de mener des recherches scientifiques et de générer de nouvelles connaissances.
Selon un billet du blogue The Digital Speaker, cette innovation aurait le potentiel de démocratiser la recherche scientifique et d’en accélérer le rythme, tout en redéfinissant le rôle des scientifiques humains. Apparemment, à partir d’une orientation de recherche générale et d’une base de code simple, l’AI Scientist pourrait intervenir tout au long du cycle de vie de la recherche, de l’idéation à l’exécution et bien plus. Qui plus est, par l’automatisation des phases de codage et d’expérimentation, cet outil pourrait produire un manuscrit scientifique complet à un coût très bas, soit environ 15 dollars selon les ressources informatiques utilisées. Il s’agit évidemment d’une fraction des coûts traditionnels.
Selon le billet de blogue, l’un des aspects les plus novateurs proposés par l’AI Scientist est la possibilité d’automatiser l’évaluation par les pairs. Autrement dit, cet outil pourrait effectuer le processus d’évaluation de la qualité des articles qu’il génère, fournir des commentaires et utiliser ces informations pour affiner les recherches futures.
Bien que l’on pense que cela pourrait alléger la charge des évaluateurs humains et simplifier le processus de publication universitaire, il y aurait assurément des questionnements sur l’intégrité du processus. En effet, il y aurait des craintes quant à la possibilité d’introduire des biais ou de négliger des connaissances humaines nuancées qui sont cruciales pour le discours scientifique.
D’autres défis éthiques découlent de certains défauts du AI Scientist. Par exemple, le manque de capacités visuelles affecterait ses aptitudes à lire les graphiques et à corriger les erreurs visuelles dans les documents qu’il génère. Cela pourrait conduire à des résultats trompeurs. Enfin, hormis les limitations techniques, on s’inquiète d’une utilisation potentiellement abusive de cette technologie, qui pourrait aboutir à une communauté universitaire inondée par des travaux de qualité moindre ayant le potentiel de propager des informations fausses ou nuisibles.
Un article de L’Usine Digitale commente le lancement récent par la jeune pousse japonaise Sakana AI – en partenariat avec les universités d’Oxford et de Colombie-Britannique – du « AI Scientist », un modèle de langage capable de mener des recherches scientifiques. Présenté dans l’article « The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery », ce modèle pourrait automatiser certaines étapes nécessaires à une découverte scientifique et serait donc capable de générer des idées, de réaliser des expérimentations et de rédiger des articles scientifiques.
Sakana AI précise que des modèles sophistiqués ont déjà été utilisés pour aider les scientifiques dans des tâches telles que le remue-méninges ou l’écriture de code. Cependant, ces activités, dit-on, nécessiteraient toujours une supervision manuelle importante, ou sont fortement limitées à une tâche en particulier. C’est pourquoi, pour cette entreprise, l’un des grands défis de l’intelligence artificielle est de développer des agents capables de mener des recherches scientifiques et de générer de nouvelles connaissances.
Selon un billet du blogue The Digital Speaker, cette innovation aurait le potentiel de démocratiser la recherche scientifique et d’en accélérer le rythme, tout en redéfinissant le rôle des scientifiques humains. Apparemment, à partir d’une orientation de recherche générale et d’une base de code simple, l’AI Scientist pourrait intervenir tout au long du cycle de vie de la recherche, de l’idéation à l’exécution et bien plus. Qui plus est, par l’automatisation des phases de codage et d’expérimentation, cet outil pourrait produire un manuscrit scientifique complet à un coût très bas, soit environ 15 dollars selon les ressources informatiques utilisées. Il s’agit évidemment d’une fraction des coûts traditionnels.
Selon le billet de blogue, l’un des aspects les plus novateurs proposés par l’AI Scientist est la possibilité d’automatiser l’évaluation par les pairs. Autrement dit, cet outil pourrait effectuer le processus d’évaluation de la qualité des articles qu’il génère, fournir des commentaires et utiliser ces informations pour affiner les recherches futures.
Bien que l’on pense que cela pourrait alléger la charge des évaluateurs humains et simplifier le processus de publication universitaire, il y aurait assurément des questionnements sur l’intégrité du processus. En effet, il y aurait des craintes quant à la possibilité d’introduire des biais ou de négliger des connaissances humaines nuancées qui sont cruciales pour le discours scientifique.
D’autres défis éthiques découlent de certains défauts du AI Scientist. Par exemple, le manque de capacités visuelles affecterait ses aptitudes à lire les graphiques et à corriger les erreurs visuelles dans les documents qu’il génère. Cela pourrait conduire à des résultats trompeurs. Enfin, hormis les limitations techniques, on s’inquiète d’une utilisation potentiellement abusive de cette technologie, qui pourrait aboutir à une communauté universitaire inondée par des travaux de qualité moindre ayant le potentiel de propager des informations fausses ou nuisibles.