banner
Heim / Blog / Neues KI-Modell verändert das Verständnis von Metall
Blog

Neues KI-Modell verändert das Verständnis von Metall

Sep 21, 2023Sep 21, 2023

13. März 2023

Dieser Artikel wurde gemäß dem Redaktionsprozess und den Richtlinien von Science X überprüft. Die Redakteure haben die folgenden Attribute hervorgehoben und gleichzeitig die Glaubwürdigkeit des Inhalts sichergestellt:

faktengeprüft

peer-reviewte Veröffentlichung

vertrauenswürdige Quelle

Korrekturlesen

von der Eidgenössischen Polytechnischen Schule Lausanne

Wie sagt ein iPhone das nächste Wort voraus, das Sie in Ihre Nachrichten eingeben werden? Die Technologie dahinter und auch das Herzstück vieler KI-Anwendungen wird als Transformator bezeichnet; ein Deep-Learning-Algorithmus, der Muster in Datensätzen erkennt.

Jetzt haben Forscher der EPFL und des KAIST einen Transformator für Metal-Organic Frameworks (MOFs) entwickelt, eine Klasse poröser kristalliner Materialien. Durch die Kombination organischer Linker mit Metallknoten können Chemiker Millionen verschiedener Materialien mit potenziellen Anwendungen in der Energiespeicherung und Gastrennung synthetisieren.

Der „MOFtransformer“ ist als ChatGPT für Forscher konzipiert, die MOFs untersuchen. Seine Architektur basiert auf einer KI namens Google Brain, die natürliche Sprache verarbeiten kann und den Kern beliebter Sprachmodelle wie GPT-3, dem Vorgänger von ChatGPT, bildet. Die zentrale Idee hinter diesen Modellen besteht darin, dass sie vorab anhand einer großen Textmenge trainiert werden. Wenn wir also beispielsweise mit dem Tippen auf einem iPhone beginnen, „kennen“ Modelle wie dieses das wahrscheinlichste nächste Wort und vervollständigen es automatisch.

„Wir wollten diese Idee für MOFs untersuchen, aber anstatt einen Wortvorschlag zu geben, wollten wir, dass er eine Eigenschaft vorschlägt“, sagt Professor Berend Smit, der die EPFL-Seite des Projekts leitete. „Wir haben den MOFTransformer mit einer Million hypothetischer MOFs vorab trainiert, um ihre wesentlichen Eigenschaften zu lernen, die wir als Satz dargestellt haben. Das Modell wurde dann darauf trainiert, diese Sätze zu vervollständigen, um die korrekten Eigenschaften des MOFs zu erhalten.“

Anschließend optimierten die Forscher den MOFTransformer für Aufgaben im Zusammenhang mit der Wasserstoffspeicherung, beispielsweise die Speicherkapazität von Wasserstoff, seinen Diffusionskoeffizienten und die Bandlücke des MOF (eine „Energiebarriere“, die bestimmt, wie leicht sich Elektronen durch ein Material bewegen können). ).

Der Ansatz zeigte, dass der MOFTransformer im Vergleich zu herkömmlichen Methoden des maschinellen Lernens, die viel mehr Daten erfordern, Ergebnisse mit weitaus weniger Daten erzielen kann. „Aufgrund des Vortrainings kennt der MOFTtransformer bereits viele der allgemeinen Eigenschaften von MOFs; und aufgrund dieses Wissens benötigen wir weniger Daten, um für eine andere Eigenschaft zu trainieren“, sagt Smit. Darüber hinaus könnte für alle Eigenschaften das gleiche Modell verwendet werden, während beim herkömmlichen maschinellen Lernen für jede Anwendung ein eigenes Modell entwickelt werden muss.

Der MOFTransformer revolutioniert die Untersuchung von MOFs und liefert schnellere Ergebnisse mit weniger Daten und ein umfassenderes Verständnis des Materials. Die Forscher hoffen, dass der MOFTransformer den Weg für die Entwicklung neuer MOFs mit verbesserten Eigenschaften für die Wasserstoffspeicherung und andere Anwendungen ebnen wird.

Die Ergebnisse werden in der Fachzeitschrift Nature Machine Intelligence veröffentlicht.

Mehr Informationen: Jihan Kim, Ein multimodaler Pre-Training-Transformator für universelles Transferlernen in metallorganischen Frameworks, Nature Machine Intelligence (2023). DOI: 10.1038/s42256-023-00628-2. www.nature.com/articles/s42256-023-00628-2

Zeitschrifteninformationen:Naturmaschinenintelligenz

Zur Verfügung gestellt von der Ecole Polytechnique Federale de Lausanne

Weitere Informationen: Zeitschrifteninformationen: Zitieren