Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

最新版在空闲时,占用了服务器所有系统资源。。。 #1098

Open
5 tasks done
caliban511 opened this issue May 8, 2023 · 11 comments
Open
5 tasks done
Labels
bug Something isn't working

Comments

@caliban511
Copy link

Bug 描述

如题。
我用的是docker,,系统是PVE下的Debian11虚拟机。
感觉最近软路由反应比以前迟钝了,看了下,发现这个docker占用了服务器绝大部分的CPU和内存,在没有使用网易云,没有请求连接到它的情况下,系统资源有多少它就能吃掉多少,,,
删掉容器重建了几次,都是运行一段时间后就会变成这样。
请问这是正常情况吗?

Screenshot_2023-05-09-04-42-48-886_com devolutions remotedesktopmanager

预期行为

资源占用恢复到以前

实际行为

No response

复现步骤

重建了几次都是这样

日志内容

等我明天研究研究这个要怎么弄,,,🙈🙈🙈

网易云音乐歌曲链接

No response

网易云音乐版本号

与此无关

操作系统

与此无关

其他信息

No response

问题排查

  • 我确认我使用的核心是由 UnblockNeteaseMusic 项目官方发行,不是其他任何 fork。
  • 我确认我已经升级到了最新的核心版本(推荐使用最新构建而不是 release)。
  • 我确认我已经启用了 HTTPS 端口。
  • 我确认我已经正确设置了 EndPoint。
  • 我确认我已经在对应的客户端正确安装了 CA 证书。
@caliban511 caliban511 added the bug Something isn't working label May 8, 2023
@caliban511
Copy link
Author

没看明白,请问各位大佬,日志里的这两个网站是什么意思?
我用的是 pan93412/unblock-netease-music-enhanced:latest ,,,

屏幕截图 2023-05-09 202944
屏幕截图 2023-05-09 203713
屏幕截图 2023-05-09 202459
屏幕截图 2023-05-09 203944
屏幕截图 2023-05-09 203846
屏幕截图 2023-05-09 204008

@caliban511
Copy link
Author

屏幕截图 2023-05-09 204612
屏幕截图 2023-05-09 204629

@caliban511 caliban511 changed the title 最新版在空闲时,占用了服务器所有系统有资源。。。 最新版在空闲时,占用了服务器所有系统资源。。。 May 9, 2023
@rankanin
Copy link
Contributor

rankanin commented May 9, 2023

docker run  -d -p 8080:8080  -m 300M --memory-swap -1 -e ENABLE_LOCAL_VIP=true -e NO_CACHE=true -e ENABLE_FLAC=true -e NODE_ENV=production --restart=always --log-opt max-size=10m --name=win_music pan93412/unblock-netease-music-enhanced -e https://music.163.com

@caliban511
Copy link
Author

docker run  -d -p 8080:8080  -m 300M --memory-swap -1 -e ENABLE_LOCAL_VIP=true -e NO_CACHE=true -e ENABLE_FLAC=true -e NODE_ENV=production --restart=always --log-opt max-size=10m --name=win_music pan93412/unblock-netease-music-enhanced -e https://music.163.com

感谢大佬回复,我试试,,,
顺便请教下, NODE_ENV=production 这个参数是什么意思啊?没找到说明,,,,

@caliban511
Copy link
Author

caliban511 commented May 9, 2023

docker run  -d -p 8080:8080  -m 300M --memory-swap -1 -e ENABLE_LOCAL_VIP=true -e NO_CACHE=true -e ENABLE_FLAC=true -e NODE_ENV=production --restart=always --log-opt max-size=10m --name=win_music pan93412/unblock-netease-music-enhanced -e https://music.163.com

试了下,一段时间后还是变成这样了,我看你在参数里启用了那个 FOLLOW_SOURCE_ORDER ,
按文档里说法,所以我这是被攻击了吗?
内存控制住了,但CPU还是上去了,,,

屏幕截图 2023-05-09 224726

屏幕截图 2023-05-09 225336

@rankanin
Copy link
Contributor

rankanin commented May 9, 2023

docker run -d -p 8080:8080 -m 300M --memory-swap -1 -e ENABLE_LOCAL_VIP=true -e NO_CACHE=true -e ENABLE_FLAC=true -e NODE_ENV=production --restart=always --log-opt max-size=10m --name=win_music pan93412/unblock-netease-music-enhanced -e https://music.163.com

试了下,一段时间后还是变成这样了,我看你在参数里启用了那个 FOLLOW_SOURCE_ORDER ,

按文档里说法,所以我这是被攻击了吗?

内存控制住了,但CPU还是上去了,,,

屏幕截图 2023-05-09 224726

屏幕截图 2023-05-09 225336

可以去了解一下docker限制cpu资源,或者问问chatgpt

@caliban511
Copy link
Author

可以去了解一下docker限制cpu资源,或者问问chatgpt

也就是说,最新版这个占用是正常的情况对吗?
谢谢大佬,那就这样吧。

@pan93412
Copy link
Member

pan93412 commented Jul 8, 2023

非常不正常…… 我看看是哪裡 memory leak。

@caliban511
Copy link
Author

非常不正常…… 我看看是哪裡 memory leak。

感谢大佬回复。
这个问题是之前我把端口转发到外网时出现的,只要转发出去,过一段时间后,内存占用就会逐渐上涨。
后来关闭转发,仅在内网使用后,就没有这个问题了。
不晓得是被攻击还是怎么回事,,,

@aliencaocao
Copy link

我这边也是内存一直上涨,cpu没事

@rcy17
Copy link

rcy17 commented Jan 9, 2024

非常不正常…… 我看看是哪裡 memory leak。

感谢大佬回复。 这个问题是之前我把端口转发到外网时出现的,只要转发出去,过一段时间后,内存占用就会逐渐上涨。 后来关闭转发,仅在内网使用后,就没有这个问题了。 不晓得是被攻击还是怎么回事,,,

就是被攻击了,你转发到外网时它成了一个没密码的公开代理,被扫描器扫到后当肉鸡了,比如被拿来当DDoS节点用,所以资源被吃满了。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
bug Something isn't working
Projects
None yet
Development

No branches or pull requests

5 participants