首页 > 创新科技
T- T+
诺贝尔颁奖典礼致辞------物理学奖
分享到:

瑞典皇家科学院院士、诺贝尔物理学奖委员会主席艾伦·穆恩斯教授于2024年12月10日发表演讲。

诺贝尔官网

尊敬的国王陛下、殿下、尊敬的诺贝尔奖获得者、女士们、先生们,

今天你来到这里时,立刻就认出了一些面孔,名字也一闪而过。其他名字可能已经忘了。也许你感到一阵沮丧,在记忆中搜寻过去遇到的情景,却怎么也想不起来。

记忆联想是理解新信息的支架。随着每一次思考,我们大脑中的数十亿个神经元会形成更强的连接。1949年,加拿大心理学家唐纳德·赫布(Donald Hebb)用“一起激发的神经元会连接在一起”来描述学习机制。

今年的诺贝尔物理学奖得主约翰·霍普菲尔德和杰弗里·辛顿受到人类大脑神经元网络的启发。他们开发了人工神经网络,这是机器学习的基础——使计算机无需明确编程即可学习。

1982年,约翰·霍普菲尔德发现,描述原子磁矩如何在固体中排列并赋予它们磁性的物理学原理也可用于描述我们大脑中神经元之间的相互作用。他开发了一种基于二进制节点网络的联想记忆动态模型,其中节点被赋予由所有节点的加权和决定的值。

就像球从山上滚下来一样,动态系统会进入能量景观的山谷,在那里它会放松下来。在这些山谷中,记忆处于静止状态。所以,在这里你会找到你在记忆景观中寻找的熟人的名字!

作为一名在固体物理学方面有着深厚根基、并对生物物理学和神经科学的复杂过程充满热情的理论物理学家,约翰·霍普菲尔德的成就证明了跨学科思维的力量。

杰弗里·辛顿(Geoffrey Hinton)利用统计物理学的思想扩展了霍普菲尔德的模型。这项发明被称为玻尔兹曼机,以奥地利物理学家路德维希·玻尔兹曼(Ludwig Boltzmann)的名字命名。它包含多层节点,并使用给定的模式集进行训练。经过训练后,网络可以生成与学习集相似的新模式。

杰弗里·辛顿是高效学习算法发展的领军人物。他率先建立了深度密集的神经网络。这种网络能够有效地对大量数据进行分类和解释,并根据结果的准确性进行自我改进。

如今,人工神经网络已成为物理、化学和医学等研究领域以及日常生活中的强大工具。虽然它们可以帮助人类快速给出答案,但确保以安全和合乎道德的方式使用它们是我们的共同责任。

约翰·霍普菲尔德教授和杰弗里·辛顿教授,你们因“使人工神经网络机器学习成为可能的基础性发现和发明”而荣获2024年诺贝尔物理学奖。我谨代表瑞典皇家科学院向你们表示最热烈的祝贺,我深感荣幸。

现在我请你们上前,从国王陛下手中接受诺贝尔奖。

Award ceremony speech

English

Presentation speech by Professor Ellen Moons,Member of the Royal Swedish Academy of Sciences,Chair of the Nobel Committee for Physics,10December2024.

Your Majesties,Your Royal Highnesses,Esteemed Nobel Prize Laureates,Ladies and Gentlemen,

As you arrived here today,you recognised some faces instantly and names came to you in a flash.Other names may have slipped your mind.Perhaps you felt a twinge of frustration,scanning your memory for the circumstances of past encounters that just won’t come into focus.

Memory association works as a scaffold to understand new information.With every thought,the billions of neurons in our brain develop stronger connections.In1949,the Canadian psychologist Donald Hebb said,“neurons that fire together,wire together”,to describe the mechanism of learning.

This year’s Nobel Prize laureates in physics,John Hopfield and Geoffrey Hinton,were inspired by the network of neurons in the human brain.They developed artificial neural networks,which are fundamental for machine learning–allowing computers to learn without explicit programming.

In1982,John Hopfield discovered that the physics describing how atomic magnetic moments align in solids,giving them their magnetic properties,can also be used to describe interactions between neurons in our brains.He developed a dynamical model for an associative memory,based on networks of binary nodes,where nodes were assigned values determined by a weighted sum over all nodes.

Like a ball rolling down a hill,the dynamics drive the system into the valleys of the energy landscape,where it relaxes.In these valleys,memories are located as stationary states.So,this is where you will find the name of the acquaintance you were searching for in your memory landscape!

As a theoretical physicist with deep roots in solid state physics and a passion for complex processes in biophysics and neuroscience,John Hopfield’s achievements are a testimony to the power of interdisciplinary thinking.

Geoffrey Hinton extended Hopfield’s model,using ideas from statistical physics.The invention is called the Boltzmann machine,named after the Austrian physicist Ludwig Boltzmann.It contains multiple layers of nodes and is trained using given sets of patterns.Once trained,the network can generate new patterns that resemble those in the learned set.

Geoffrey Hinton is a leading figure in the development of efficient learning algorithms.He pioneered the efforts to establish deep and dense neural networks.Such networks are effective in sorting and interpreting large amounts of data and self-improve based on the accuracy of the result.

Today,artificial neural networks are powerful tools in research fields spanning physics,chemistry and medicine,as well as in daily life.While they can aid humans in delivering fast answers,it is our collective responsibility to ensure that they are used in a safe and ethical way.

Professor John Hopfield and Professor Geoffrey Hinton,you have been awarded the2024Nobel Prize in Physics “for foundational discoveries and inventions that enable machine learning with artificial neural networks.” It is an honour and a privilege to convey to you,on behalf of the Royal Swedish Academy of Sciences,our warmest congratulations.

I now ask you to step forward to receive your Nobel Prizes from the hands of His Majesty the King.

Presentationstal

Swedish

Presentationstal av Professor Ellen Moons,ledamot av Kungliga Vetenskapsakademien,ordförande i Nobelkommittén för fysik,10december2024.

Eders Majestäter,Eders Kungliga Högheter,Ärade Nobelpristagare,Mina damer och herrar,

När ni kom hit idag kände ni genast igen vissa ansikten och namnen kom till er blixtsnabbt.Andra namn kan ha ramlat ur minnet.Kanske kände ni ett sting av frustration när ni sökte i minnet efter omständigheterna kring tidigare möten som bara inte ville klarna.

Minnesassociationer fungerar som en stomme för att förståny information.För varje tanke utvecklas starkare kopplingar mellan de miljarder nervceller som finns i vår hjärna.År1949sa den kanadensiske psykologen Donald Hebb att“neuroner som avfyras tillsammans,kopplas samman”för att beskriva mekanismen för inlärning.

Årets Nobelpristagare i fysik,John Hopfield och Geoffrey Hinton,inspirerades av neuronnätverket i den mänskliga hjärnan.De har utvecklat artificiella neurala nätverk somär grundläggande för maskininlärning,som möjliggör att datorer lär sig utan explicit programmering.

1982upptäckte John Hopfield att fysiken som beskriver hur atomers magnetiska moment anpassar sig till varandra i fasta material och ger dem deras magnetiska egenskaper,ocksåkan användas för att beskriva interaktionerna mellan neuroner i våra hjärnor.Han utvecklade en dynamisk modell för ett associativt minne,baserat pånätverk av binära noder,där noder tilldelades värden som bestämdes av en viktad summaöver alla noder.

Likt en boll som rullar nedför en kulle,driver dynamiken systemet till energilandskapets dalar,där det hamnar i viloläge.I dessa dalar befinner sig minnena som stationära tillstånd.Sådär hittar du ocksånamnet påden personen du sökte efter i ditt minneslandskap!

Som teoretisk fysiker med djupa rötter i fasta tillståndets fysik och en passion för komplexa processer inom biofysik och neurovetenskap,vittnar John Hopfields prestationer om kraften i tvärvetenskapligt tänkande.

Geoffrey Hinton utvidgade Hopfields modell med hjälp av idéer från statistisk fysik.Uppfinningen kallas Boltzmannmaskinen,uppkallad efter denösterrikiske fysikern Ludwig Boltzmann.Den innehåller flera lager av noder och tränas pågivna uppsättningar av mönster.När nätverket väl har tränats kan det generera nya mönster som liknar dem i den inlärda uppsättningen.

Geoffrey Hintonär en ledande person inom utvecklingen av effektiva inlärningsalgoritmer.Han var pionjär i arbetet med att etablera djupa och täta neurala nätverk.Sådana nätverkär effektiva när det gäller att sortera och tolka stora mängder data och förbättrar sig själva baserat påresultatets noggrannhet.

Idagär artificiella neurala nätverk kraftfulla verktyg inom forskningsområden som omfattar fysik,kemi och medicin,liksom i det dagliga livet.De kan hjälpa människor att leverera snabba svar,men detär fortfarande vårt gemensamma ansvar att säkerställa att de används påett säkert och etiskt sätt.

Professor John Hopfield och professor Geoffrey Hinton,ni har tilldelats Nobelpriset i fysik2024“för grundläggande upptäckter och uppfinningar som möjliggör maskininlärning med artificiella neurala nätverk”.Detär enära och ett privilegium attåKungliga Vetenskapsakademiens vägnar fåframföra våra varmaste gratulationer till er.

Jag ber er nu att träda fram för att ta emot era Nobelpris ur Hans Majestät Konungens hand.

Copyright©The Nobel Foundation2024

分享到:
网友评论

10 条评论

所有评论
显示更多评论
广告位1
广告位2