比思論壇

標題: 科学家发现一种能解决“最难”计算机问题的新方法 [打印本頁]

作者: doco2012    時間: 2021-9-30 22:22
標題: 科学家发现一种能解决“最难”计算机问题的新方法
一种相对较新的模拟人脑工作方式的计算方式已经改变了科学家解决一些最困难的信息处理问题的方式。现在,研究人员发现了一种方法,它可以使所谓的“储层计算”的工作速度提高3300到100万倍,而所需的计算资源和数据输入则大大减少。

事实上,在对下一代油藏计算的一次测试中,研究人员在台式电脑上只用了不到一秒的时间解决了一个复杂的计算问题。

该研究的论文主要作者、俄亥俄州立大学的物理学教授Daniel Gauthier指出,使用目前最先进的技术,同样的问题需要超级计算机来解决且需要更长的时间。

Gauthier说道:“跟目前的油藏计算相比,我们可以用更少的计算机资源,在很短的时间内完成非常复杂的信息处理任务。与以前相比,油藏计算已经取得了显著的进步。”

这项研究于2021年9月21日发表在《Nature Communications》上。


Gauthier称,水库计算是一种机器学习算法,开发于21世纪初,用于解决“最难中的最难”的计算问题如预测随时间变化的动力系统的进化。

他表示,动力系统就像天气一样,是很难预测的,因为一种情况下的一个小变化可能会产生巨大的影响。一个著名的例子就是“蝴蝶效应”,这是一个隐喻性的例子,蝴蝶扇动翅膀所产生的变化最终会影响几周后的天气。

Gauthier表示,之前的研究表明,储层计算非常适合学习动力系统,可以提供关于它们未来行为的准确预测。它通过使用人工神经网络来做到这一点,这有点像人类的大脑。科学家将动态网络中的数据输入一个由随机连接的人工神经元组成的“库”中。该网络产生有用的输出,科学家可以解释并反馈到该网络,然后建立一个越来越准确的预测,该系统将如何在未来发展。

系统越大、越复杂、科学家希望预测到的结果越准确,那么人工神经元网络就必须越大、完成任务所需的计算资源和时间也就越多。

Gauthier指出,一个问题是,人造神经元的储存库是一个“黑盒子”,科学家们还不知道它里面到底发生了什么,他们只知道它在工作。

Gauthier称,水库计算的核心人工神经网络是建立在数学基础上的。

“我们让数学家研究这些网络,并问‘机器中的所有这些部件在多大程度上真的需要?’”他说道。

在这项研究中,Gauthier和他的同事调查了这个问题,结果发现整个油藏计算系统可以大大简化、大大减少对计算资源的需求及节省大量时间。

他们在一个预报任务中测试了他们的概念,该任务涉及到Edward Lorenz开发的天气系统,他的工作使我们理解了蝴蝶效应。

在Lorenz预测任务中,他们的下一代油藏计算技术明显优于当今的先进技术。在一台台式机上进行的一个相对简单的模拟中,新系统比现有模型快33到163倍。

但当目标是提高预测的准确性时,下一代油藏计算速度则要快100万倍。Gauthier表示,新一代的计算机只需要28个神经元就能达到同样的精度,而现在的模型需要4000个神经元。

加速的一个重要原因是,跟当前一代相比,下一代存储计算背后的“大脑”需要更少的热身和训练才能产生相同的结果。

热身是训练数据,这些数据需要作为输入添加到蓄水池计算机中以使其为实际任务做好准备。

“对于我们的下一代油藏计算几乎不需要热身时间,”Gauthier说道,“目前,科学家必须放入1000或10000个或更多的数据点来使其热身。这些都是丢失的数据,在实际工作中是不需要的。我们只需要输入一、二、三个数据点。”

一旦研究人员准备好训练水库计算机进行预测,那么下一代系统需要的数据就会少很多。

在Lorenz预测任务的测试中,研究人员使用400个数据点可以得到跟当前一代使用5000个或更多数据点产生的相同结果,这取决于所需的准确性。

Gauthier说道:“令人兴奋的是,下一代油藏计算技术采用了已经非常优秀的技术,大大提高了效率。”

他和他的同事们计划将这项工作扩展到更复杂的计算问题上,如预测流体动力学。“这是一个极具挑战性的问题。我们想看看是否可以使用简化的油藏计算模型加快解决这个问题的进程,”Gauthier说道。
作者: HQS    時間: 2021-10-1 00:35
说实话,看不懂,这种不知道什么时候才能 应用到百姓生活。。。
作者: tzy861207    時間: 2021-10-1 02:51
听雨声吵醒了
作者: 13578888    時間: 2021-10-1 08:28
科学无止境,总是有许多的奥秘让人去探索。
作者: αβγ    時間: 2021-10-1 08:32
不知道说啥好了,emmmm




歡迎光臨 比思論壇 (http://108.170.5.74/) Powered by Discuz! X2.5