全球主机交流论坛

标题: 方法:让藏在cloudflare后的自建nextcloud绕过cloudflare上传限制 [打印本页]

作者: 岱岳之上的天    时间: 2024-1-13 13:58
标题: 方法:让藏在cloudflare后的自建nextcloud绕过cloudflare上传限制
省流总结:

通过修改配置文件以开启分片上传的方式,让藏在cloudflare之后的自建nextcloud绕过cloudflare免费版本身100M大小的上传限制。此方法对网页端和官方客户端上传有效,第三方客户端无效。

具体方法:

1.首先,需要确认自己的源站web服务器默认允许上传的最大限制在合适自己的范围内(可以通过检查相应的php.ini来确认)
2.登录到服务器,找到放置nextcloud站点的根目录,进入 apps/files/js 目录,找到 jquery.fileupload.js 这个文件,并使用文本编辑器打开。
3.跳转到第154行附近,找到 maxChunkSize 这个值,将其修改为其他数值即可

  1. // To upload large files in smaller chunks, set the following option
  2. // to a preferred maximum chunk size. If set to 0, null or undefined,
  3. // or the browser does not support the required Blob API, files will
  4. // be uploaded as a whole.
  5. maxChunkSize: undefined, //就是这个,这是默认情况下的
  6. // When a non-multipart upload or a chunked multipart upload has been
  7. // aborted, this option can be used to resume the upload by setting
  8. // it to the size of the already uploaded bytes. This option is most
  9. // useful when modifying the options object inside of the "add" or
  10. // "send" callbacks, as the options are cloned for each file upload.
  11. uploadedBytes: undefined,
复制代码


例如我们可以将其修改为 100000000 (约合98MB),然后保存并退出

  1. // To upload large files in smaller chunks, set the following option
  2. // to a preferred maximum chunk size. If set to 0, null or undefined,
  3. // or the browser does not support the required Blob API, files will
  4. // be uploaded as a whole.
  5. maxChunkSize: 100000000, //修改完成之后的数值
  6. // When a non-multipart upload or a chunked multipart upload has been
  7. // aborted, this option can be used to resume the upload by setting
  8. // it to the size of the already uploaded bytes. This option is most
  9. // useful when modifying the options object inside of the "add" or
  10. // "send" callbacks, as the options are cloned for each file upload.
  11. uploadedBytes: undefined,
复制代码


此时关闭掉原先的浏览器窗口,再打开浏览器就可以上传大于100M的文件了。
作者: caigou    时间: 2024-1-13 14:09
牛逼
作者: redneck    时间: 2024-1-13 14:38
# vim /etc/php.ini
post_max_size = 100000M
upload_max_filesize = 100000M

难道不是修改这里面的吗?
作者: flipwalls    时间: 2024-1-13 15:01
redneck 发表于 2024-1-13 14:38
# vim /etc/php.ini
post_max_size = 100000M
upload_max_filesize = 100000M

套了cf 限制100 目的是每次通过cf的分片文件不拆过100
作者: supervps    时间: 2024-1-13 15:52
牛逼收藏了

作者: 0.0    时间: 2024-1-13 15:57
牛逼,绑定
作者: 志明    时间: 2024-1-13 15:58
虽说还没用next,但是先收藏
作者: a2z    时间: 2024-1-13 16:14
绑定
作者: Sam_Edward    时间: 2024-1-13 18:35
好帖,这几天配置了nextcloud和qbittorrent结合,种子下好文件,在线看片,感觉还可以,就是看视频不知道哪里设置有问题,不是特别流畅
作者: Parmesan2948    时间: 2024-1-13 18:38
牛逼, 收藏了
作者: 岱岳之上的天    时间: 2024-1-13 20:30
Sam_Edward 发表于 2024-1-13 18:35
好帖,这几天配置了nextcloud和qbittorrent结合,种子下好文件,在线看片,感觉还可以,就是看视频不知道哪 ...

看视频不是特别流畅的原因是,nextcloud有bug,不会分段加载视频到运行内存,会把整个文件加载到运行内存里。当服务器的内存被缓存占满了就会卡住。
作者: Sam_Edward    时间: 2024-1-14 12:40
岱岳之上的天 发表于 2024-1-13 20:30
看视频不是特别流畅的原因是,nextcloud有bug,不会分段加载视频到运行内存,会把整个文件加载到运行内存 ...

好像改了下php.ini配置,memory_limit我给拉到1024M,再加了个Redis,现在就还好了,也不知道是不是起作用了,这个软件可能还是主要是存储,不是直接看片最好选择,视频看的都是原始数据,不支持调整视频分辨率,不能自动切换,后面我换emby试试效果。
作者: 88170351    时间: 2024-1-14 16:14

好帖
作者: xinzatan1    时间: 2024-1-14 16:18
niubi
作者: unpack    时间: 2024-1-14 18:41
谢谢,收藏了
作者: dickson    时间: 2024-1-14 18:49
啥意思啊,是用nextcloud白**cloudflare的存储吗?怎么做到的,有教程吗?
作者: sbrvnc    时间: 2024-1-14 19:06
cf是慈善公司。抗墙第一列队




欢迎光临 全球主机交流论坛 (https://loc.010206.xyz/) Powered by Discuz! X3.4