Chatbots, zoals ChatGPT, blijken de eigenschappen van chemische stoffen heel goed te voorspellen, meldt het wetenschappelijke tijdschrift Nature. Dat is vooral goed nieuws voor chemische laboratoria met een kleine beurs.

 

Chatbots werken met zogeheten Large Language Models (LLM’s), zelflerende taalmodellen die worden getraind met enorme hoeveelheden voorbeelden. Het onderzoek in Nature maakte gebruik van GPT-3, een voorloper van de LLM achter de bekende chatbot ChatGPT.

 

Correcte antwoorden

Chemici van Duitse en Zwitserse universiteiten, onder wie de Nederlandse hoogleraar Berend Smit, voerden het onderzoek uit. Om GPT-3 te prepareren op vragen over een bepaalde stof of materiaal, verzamelden de onderzoekers eerst een berg informatie over verwante stoffen.

Die informatie bewerkten ze tot een lijst van vragen en antwoorden, die ze door het model lieten lezen. Vervolgens bleek GPT-3 in staat om vragen correct te beantwoorden, ook als de stof in kwestie niet in het trainingsmateriaal had gezeten.

 

Minstens zo goed

Gespecialiseerde – en dure – programma’s die met machine learning de eigenschappen van stoffen voorspellen, zijn al redelijk ingeburgerd in de scheikunde. Het leuke is dat GPT-3 minstens zo goed blijkt te werken als die software. Volgens de onderzoekers kunnen LLM’s dit soort voorspellingen dan ook binnen het bereik van de niet-zo-rijke labs brengen.

De prestaties van GPT-3 bleken bovendien gelijkwaardig aan die van computersimulaties die expliciet rekenen op basis van natuurkundige wetten.

 

Vergelijkbaar

Meerdere groepen in de wereld werken momenteel aan vergelijkbare ideeën. Zo berichtte Physics World vorige maand nog over werk van twee Chinese natuurkundigen. Zij leerden een LLM recepten op te stellen om niet-organische stoffen te maken.

 

Openingsbeeld: Uit: Jablonka et al., 2024, Leveraging large language models for predictive chemistry, Nature Machine Intelligence