标签:#<标签:0x00007FC40C5FA078>

我使用的是带有8GB RAM的RPI4。附加组件是:Duckdns,Esphome,Grafana,InfluxDB,Google Drive备份,Network UPS工具,Node-Red,Samba Share,DeConz。

我从HA 0.116.4升至0.117.0,我在Grafana图上注意到RPI内存的记忆逐渐增加,这是不寻常的。到几个小时内使用了两倍的“正常”使用。

附件的图像在4天内,我将解释了五个倾斜度的增加。当我使用0.116.4以表明它是“平静”的时候,我已经包括了以前的时间。第一个坡道增加是我从0.116.4升级到0.117.0。这是我在过去九个月中以前看到的异常行为。在同一天,HA更新了,Grafana也从5.3.2更新到5.3.3,我将稍后再进行。

当第一个坡道峰值开始时,我重新启动了机器以清除RAM,也许会停止运行引起它的东西。我把它留了几个小时,所以记忆使用中有第二个坡道。

在重新启动后第二次升起后,我实际上将RPI完全关闭。关闭,关闭电源,打开电源。然后,这导致了第三坡道的发展。

I then tried to eliminate Grafana from being the problem by rolling that back to 5.3.2 (which solved an iOS Grafana panel issue, but that’s another thing) but the memory continued to increase into a fourth ramp, which got as high as 2.3GB of ram used as compared to just over 1GB normally.

我注意到有0.117.1可用,所以我对此进行了更新,认为这可能会解决问题。那是第五坡道发展的时候。

作为最后的手段,我回到了0.116.4,低调,看到记忆再次恢复到以前的状态。

因此,罪魁祸首是0.117.0及以上的东西,这导致RPI吞噬了内存使用情况。与内存使用相关,它也增加了CPU的使用情况,遵循相似的模式,然后显然会导致温度升高,这也遵循相同的模式。

因此,是否有人使用Grafana监视其RPI参数,在更新为0.117.0及更高版本后,内存使用情况类似?

我已经在Discord频道中提到了这一点。

稳定的RAM用法:0.116.4
坡道1:更新为0.117.0
坡道2:软启动
坡道3:硬重启
坡道4:Grafana回滚
坡道5:更新为0.117.1
返回稳定的RAM使用:回到0.116.4

2个喜欢

可能与https://github.com/home-assistant/core/issues/42390
在这里使用修复PR:https://github.com/home-assistant/core/pull/42651

这些图确实看起来非常相似,因此我很高兴它正在研究,但是我没有运行任何OnVIF摄像机或附加组件。这种可能的错误仍然会影响不使用ONVIF摄像机的用户吗?

我的在RPI3B上。高RAM使用启动了2020.10.0主管安装或升级到0.117.0。

附加组件是:
Adguard家
空气广播
文件编辑器
节点红色
桑巴分享
终端和SSH

主管日志正在不断重复相同的错误。

20-10-31 16:45:29警告(mainthread)[supervisor.misc.tasks]看门狗/docker发现了观察者插件的问题!20-10-31 16:45:29信息(mainthread)[supersor.plugins.observer]开始观察者插件20-10-31 16:45:29警告(mainthread)观察者插件的问题!20-10-31 16:45:29错误(mainthread)[supersisor.utils]在执行任务时无法执行停止20-10-31 16:45:29 info(mainthread)]启动观察者插件20-10-31 16:45:29错误(mainthread)[suppsiSor.utils]在任务正在进行20-10-31 16:45:29 INFO(SYNCWORKER_5)[SYNCWORKER_5)[persiveror.docker.interface]清洁hassio_observer应用程序20-10-31 16:46:01错误(Syncworker_5)[suppsisor.docker]无法启动HASSIO_OBSERVER:500服务器错误:500服务器错误:内部服务器错误:内部服务器错误:driver在端点HASSIO_OBSIO_OBSERVERSIO_OBSERVERVERITION上的外部连接失败HASSIO_OBSIO_OBSERVERVERITION(F281907D93807BF6ADC02DB1857AFBA26BCEA9EF859C8874F04F04EF04FC13DEB025B):绑定为0.0.0.0.0.0:4357失败:端口已经分配了“端口”,已分配了“ 20-10-31 16:46:46:01”。31 16:46:01错误(mainthread)[supervisor.misc.tasks]观察者看门狗复活失败了!20-10-31 16:47:01警告(mainthread)[supervisor.misc.tasks]看门狗/docker发现了观察者插件的问题!20-10-31 16:47:01信息(mainthread)[sustemor.plugins.observer]启动观察者插件20-10-31 16:47:01 info(syncworker_5)[suppsisor.docker.docker.interface]清洁Hassio_Observer应用程序20-10-31 16:47:02错误(syncworker_5)[sustemor.docker]无法启动hassio_observer:500服务器错误:内部服务器错误:内部服务器错误(“驱动程序在endpoint hassio_observer上编程的外部连接失败hassio_observer(9D92AC3337F83AC48EBDD4C14C14C14CAE)for4357失败:端口已经分配了”)20-10-31 16:47:02错误(mainthread)[sustemor.plugins.observer]无法启动观察者插件20-10-31 16:47:02错误(mainthread) [supervisor.misc.tasks] Observer watchdog reanimation failed!

如果这是不相关的(您没有运行ONVIF),我建议您在GitHub上打开一个问题。社区论坛非常适合讨论,但是开发人员不经常在这里检查。

我将看看更新是否修复了它。如果没有,我会标记。我目前需要的0.117.0及以上没有什么。该系统目前正在运行完全稳定。

原谅我的屁股在这里,但我不知道原因,但我认识到症状。某些组件具有内存泄漏……它正在分配内存而不是发布内存。

因此,理想情况下,您需要通过进程检查内存消耗,并查看是否可以隔离特定过程。不过,您绝对应该对此打开错误报告。

在Docker容器中也可以在Xpenology上查看它

是的,我一次启用并禁用一个附加组件,以查看是否可以确定。我回滚了几个附加组。停止的唯一一件事是最后一次从0.117.0回到0.116.4的手段,并解决了它。这与0.117.0有关。

另外,如何通过进程监视内存?什么程序使我可以在Raspberry Pi上执行此操作?

这里同样的问题…

升级到0.116.x时,我的情况相同,而不是由0.117.x固定

您的CPU也这样做吗?

我决定暂时坚持0.115.6(图表末端的扁平位)。

同样的问题。还回到116.4,比RAM保持第5轮
升级到117,Ram不断攀升至50次,并且数量计算。

是的,处理器的使用也逐渐增加,但不像您那样大。它通常位于4%左右,但确实以相同的模式上升。

在配置或附加组件中,可能存在与“ ONVIF”有关的循环错误。我不使用ONVIF进行摄像机,但是现在有一个0.117.2的版本可以解决该错误。

我现在正在更新到0.117.2版本,如果我看到同样的问题,我将在几个小时内进行报告。

而且,我可以通过更新为0.117.2来确认这是一个负面的修复,如您在附加图中所示。

它只运行了几个小时,似乎正处于大规模内存使用的路径上。我添加了“ Holt Winters”投影方法,它还表明它预测了随着时间的流逝,大量内存使用的途径类似。

在这里和你一样。(Siriusgen)

另一个。版本0.117.2并未为我解决问题。

FWIW,今天早上9:00,我从0.116.4升级到0.117.2。该图的尖峰的所有内容均为0.116.4,右侧为0.117.2。

它显示出较少的内存消耗(即自由存储器稍高)。

我怀疑记忆消耗增加(即记忆泄漏)的报告可能是由于一个或多个集成。源自英国始于1946

看起来确实如此。我已经一个一个接一个地禁用所有附加组件,以查看是否可以找到问题。每次残疾人都可以进行,它仍在发生。奇怪的是,我无法弄清楚。

问题可能不是插件,而是与集成在一起。源自英国始于1946插件在单独的容器中运行,对家庭助理服务没有直接影响。19463331伟德国际

1喜欢