Holen Sie sich das ultimative Spielerlebnis mit dem Predator Helios Neo 16
Mar 06, 2023White-Laue- und Pulverbeugungsstudien zur Aufklärung der Mechanismen von HCP
Mar 08, 2023Kleine Partikel mit großer Wirkung
Mar 10, 2023Kohlenstoff
Mar 12, 2023Clevere Dinge auf Amazon, die erschreckend günstig sind
Mar 14, 2023Neues KI-Modell verändert das Verständnis von Metall
13. März 2023
Dieser Artikel wurde gemäß dem Redaktionsprozess und den Richtlinien von Science X überprüft. Die Redakteure haben die folgenden Attribute hervorgehoben und gleichzeitig die Glaubwürdigkeit des Inhalts sichergestellt:
faktengeprüft
peer-reviewte Veröffentlichung
vertrauenswürdige Quelle
Korrekturlesen
von der Eidgenössischen Polytechnischen Schule Lausanne
Wie sagt ein iPhone das nächste Wort voraus, das Sie in Ihre Nachrichten eingeben werden? Die Technologie dahinter und auch das Herzstück vieler KI-Anwendungen wird als Transformator bezeichnet; ein Deep-Learning-Algorithmus, der Muster in Datensätzen erkennt.
Jetzt haben Forscher der EPFL und des KAIST einen Transformator für Metal-Organic Frameworks (MOFs) entwickelt, eine Klasse poröser kristalliner Materialien. Durch die Kombination organischer Linker mit Metallknoten können Chemiker Millionen verschiedener Materialien mit potenziellen Anwendungen in der Energiespeicherung und Gastrennung synthetisieren.
Der „MOFtransformer“ ist als ChatGPT für Forscher konzipiert, die MOFs untersuchen. Seine Architektur basiert auf einer KI namens Google Brain, die natürliche Sprache verarbeiten kann und den Kern beliebter Sprachmodelle wie GPT-3, dem Vorgänger von ChatGPT, bildet. Die zentrale Idee hinter diesen Modellen besteht darin, dass sie vorab anhand einer großen Textmenge trainiert werden. Wenn wir also beispielsweise mit dem Tippen auf einem iPhone beginnen, „kennen“ Modelle wie dieses das wahrscheinlichste nächste Wort und vervollständigen es automatisch.
„Wir wollten diese Idee für MOFs untersuchen, aber anstatt einen Wortvorschlag zu geben, wollten wir, dass er eine Eigenschaft vorschlägt“, sagt Professor Berend Smit, der die EPFL-Seite des Projekts leitete. „Wir haben den MOFTransformer mit einer Million hypothetischer MOFs vorab trainiert, um ihre wesentlichen Eigenschaften zu lernen, die wir als Satz dargestellt haben. Das Modell wurde dann darauf trainiert, diese Sätze zu vervollständigen, um die korrekten Eigenschaften des MOFs zu erhalten.“
Anschließend optimierten die Forscher den MOFTransformer für Aufgaben im Zusammenhang mit der Wasserstoffspeicherung, beispielsweise die Speicherkapazität von Wasserstoff, seinen Diffusionskoeffizienten und die Bandlücke des MOF (eine „Energiebarriere“, die bestimmt, wie leicht sich Elektronen durch ein Material bewegen können). ).
Der Ansatz zeigte, dass der MOFTransformer im Vergleich zu herkömmlichen Methoden des maschinellen Lernens, die viel mehr Daten erfordern, Ergebnisse mit weitaus weniger Daten erzielen kann. „Aufgrund des Vortrainings kennt der MOFTtransformer bereits viele der allgemeinen Eigenschaften von MOFs; und aufgrund dieses Wissens benötigen wir weniger Daten, um für eine andere Eigenschaft zu trainieren“, sagt Smit. Darüber hinaus könnte für alle Eigenschaften das gleiche Modell verwendet werden, während beim herkömmlichen maschinellen Lernen für jede Anwendung ein eigenes Modell entwickelt werden muss.
Der MOFTransformer revolutioniert die Untersuchung von MOFs und liefert schnellere Ergebnisse mit weniger Daten und ein umfassenderes Verständnis des Materials. Die Forscher hoffen, dass der MOFTransformer den Weg für die Entwicklung neuer MOFs mit verbesserten Eigenschaften für die Wasserstoffspeicherung und andere Anwendungen ebnen wird.
Die Ergebnisse werden in der Fachzeitschrift Nature Machine Intelligence veröffentlicht.
Mehr Informationen: Jihan Kim, Ein multimodaler Pre-Training-Transformator für universelles Transferlernen in metallorganischen Frameworks, Nature Machine Intelligence (2023). DOI: 10.1038/s42256-023-00628-2. www.nature.com/articles/s42256-023-00628-2
Zeitschrifteninformationen:Naturmaschinenintelligenz
Zur Verfügung gestellt von der Ecole Polytechnique Federale de Lausanne
Weitere Informationen: Zeitschrifteninformationen: Zitieren