seaweedfs服务启动参数及翻译(seaweed参数、seaweed命令、weed参数、weed命令)(在单个容器同时启动master、volume、filer服务)

news2024/10/5 20:17:30

文章目录

    • weed命令
      • 翻译
      • weed server命令
        • 翻译
      • weed filer命令
    • docker容器运行示例(docker run命令)
      • 以下是一个在单个容器启动master、volume、filer服务的示例
    • weed server 容器debug

版本:3.47

从官方镜像docker容器里扒下来的,只扒了自己用到的一些参数,想扒其他的参数,请在评论区留言。

weed命令

SeaweedFS: store billions of files and serve them fast!

Usage:

	weed command [arguments]

The commands are:

    autocomplete install autocomplete
    autocomplete.uninstall uninstall autocomplete
    backup      incrementally backup a volume to local folder
    benchmark   benchmark by writing millions of files and reading them out
    compact     run weed tool compact on volume file
    download    download files by file id
    export      list or export files from one volume data file
    filer       start a file server that points to a master server, or a list of master servers
    filer.backup resume-able continuously replicate files from a SeaweedFS cluster to another location defined in replication.toml
    filer.cat   copy one file to local
    filer.copy  copy one or a list of files to a filer folder
    filer.meta.backup continuously backup filer meta data changes to anther filer store specified in a backup_filer.toml
    filer.meta.tail see continuous changes on a filer
    filer.remote.gateway resumable continuously write back bucket creation, deletion, and other local updates to remote object store
    filer.remote.sync resumable continuously write back updates to remote storage
    filer.replicate replicate file changes to another destination
    filer.sync  resumable continuous synchronization between two active-active or active-passive SeaweedFS clusters
    fix         run weed tool fix on files or whole folders to recreate index file(s) if corrupted
    fuse        Allow use weed with linux's mount command
    iam         start a iam API compatible server
    master      start a master server
    master.follower start a master follower
    mount       mount weed filer to a directory as file system in userspace(FUSE)
    mq.broker   <WIP> start a message queue broker
    s3          start a s3 API compatible server that is backed by a filer
    scaffold    generate basic configuration files
    server      start a master server, a volume server, and optionally a filer and a S3 gateway
    shell       run interactive administrative commands
    update      get latest or specific version from https://github.com/seaweedfs/seaweedfs
    upload      upload one or a list of files
    version     print SeaweedFS version
    volume      start a volume server
    webdav      start a webdav server that is backed by a filer

Use "weed help [command]" for more information about a command.

For Logging, use "weed [logging_options] [command]". The logging options are:
  -alsologtostderr
    	log to standard error as well as files (default true)
  -config_dir value
    	directory with toml configuration files
  -log_backtrace_at value
    	when logging hits line file:N, emit a stack trace
  -logdir string
    	If non-empty, write log files in this directory
  -logtostderr
    	log to standard error instead of files
  -options string
    	a file of command line options, each line in optionName=optionValue format
  -stderrthreshold value
    	logs at or above this threshold go to stderr
  -v value
    	log levels [0|1|2|3|4], default to 0
  -vmodule value
    	comma-separated list of pattern=N settings for file-filtered logging

翻译

这是一个关于SeaweedFS的命令行工具的文档,SeaweedFS是一个分布式的文件系统。该文档列出了SeaweedFS命令行工具中可用的命令,包括:

- autocomplete:安装或卸载自动补全插件
- backup:将卷增量备份到本地文件夹
- benchmark:通过写入数百万个文件并读取它们来进行基准测试
- compact:在卷文件上运行weed工具压缩
- download:通过文件ID下载文件
- export:从一个卷数据文件中列出或导出文件
- filer:启动一个文件服务器,指向主服务器或主服务器列表
- filer.backup:从SeaweedFS集群连续复制文件到在replication.toml中定义的另一个位置
- filer.cat:将一个文件复制到本地
- filer.copy:将一个或多个文件复制到filer文件夹
- filer.meta.backup:连续备份filer元数据更改到在backup_filer.toml中指定的另一个filer存储
- filer.meta.tail:查看filer上的连续更改
- filer.remote.gateway:可恢复地连续将存储桶创建、删除和其他本地更新写回远程对象存储
- filer.remote.sync:可恢复地连续将更新写回远程存储
- filer.replicate:将文件更改复制到另一个目标
- filer.sync:在两个活动-活动或活动-被动SeaweedFS集群之间进行可恢复的连续同步
- fix:在文件或整个文件夹上运行weed工具修复,以重新创建索引文件(如果已损坏)
- fuse:允许使用linux的mount命令与weed一起使用
- iam:启动一个兼容IAM API的服务器
- master:启动一个主服务器
- master.follower:启动一个主服务器的follower
- mount:将weed filer挂载到目录中作为用户空间文件系统(FUSE)
- mq.broker:启动一个消息队列代理(WIP)
- s3:启动一个由filer支持的S3 API兼容服务器
- scaffold:生成基本配置文件
- server:启动一个主服务器、一个卷服务器,以及可选的filer和S3网关
- shell:运行交互式管理命令
- update:从https://github.com/seaweedfs/seaweedfs获取最新或特定版本
- upload:上传一个或多个文件
- version:打印SeaweedFS版本
- volume:启动一个卷服务器
- webdav:启动一个由filer支持的WebDAV服务器

文档还提供了有关日志记录的选项,可以使用"weed [logging_options] [command]"来记录日志。日志选项包括:

- -alsologtostderr:将日志记录到标准错误和文件中(默认为true)
- -config_dir:包含toml配置文件的目录
- -log_backtrace_at:当日志命中行文件:N时,输出堆栈跟踪
- -logdir:如果不为空,则在此目录中写入日志文件
- -logtostderr:将日志记录到标准错误而不是文件中
- -options:一个命令行选项文件,每行以optionName=optionValue格式
- -stderrthreshold:将日志记录到标准错误的阈值
- -v:日志级别[0|1|2|3|4],默认为0
- -vmodule:文件过滤日志的模式=N设置的逗号分隔列表

weed server命令

/data # weed server --help
Example: weed server -dir=/tmp -volume.max=5 -ip=server_name
Default Usage:
  -cpuprofile string
    	cpu profile output file
  -dataCenter string
    	current volume server's data center name
  -debug
    	serves runtime profiling data, e.g., http://localhost:6060/debug/pprof/goroutine?debug=2
  -debug.port int
    	http port for debugging (default 6060)
  -dir string
    	directories to store data files. dir[,dir]... (default "/tmp")
  -disableHttp
    	disable http requests, only gRPC operations are allowed.
  -filer
    	whether to start filer
  -filer.collection string
    	all data will be stored in this collection
  -filer.concurrentUploadLimitMB int
    	limit total concurrent upload size (default 64)
  -filer.defaultReplicaPlacement string
    	default replication type. If not specified, use master setting.
  -filer.dirListLimit int
    	limit sub dir listing size (default 1000)
  -filer.disableDirListing
    	turn off directory listing
  -filer.disk string
    	[hdd|ssd|<tag>] hard drive or solid state drive or any tag
  -filer.downloadMaxMBps int
    	download max speed for each download request, in MB per second
  -filer.encryptVolumeData
    	encrypt data on volume servers
  -filer.filerGroup string
    	share metadata with other filers in the same filerGroup
  -filer.localSocket string
    	default to /tmp/seaweedfs-filer-<port>.sock
  -filer.maxMB int
    	split files larger than the limit (default 4)
  -filer.port int
    	filer server http listen port (default 8888)
  -filer.port.grpc int
    	filer server grpc listen port
  -filer.port.public int
    	filer server public http listen port
  -filer.saveToFilerLimit int
    	Small files smaller than this limit can be cached in filer store.
  -filer.ui.deleteDir
    	enable filer UI show delete directory button (default true)
  -iam
    	whether to start IAM service
  -iam.port int
    	iam server http listen port (default 8111)
  -idleTimeout int
    	connection idle seconds (default 30)
  -ip string
    	ip or server name, also used as identifier (default "172.17.0.5")
  -ip.bind string
    	ip address to bind to. If empty, default to same as -ip option.
  -master
    	whether to start master server (default true)
  -master.defaultReplication string
    	Default replication type if not specified.
  -master.dir string
    	data directory to store meta data, default to same as -dir specified
  -master.electionTimeout duration
    	election timeout of master servers (default 10s)
  -master.garbageThreshold float
    	threshold to vacuum and reclaim spaces (default 0.3)
  -master.heartbeatInterval duration
    	heartbeat interval of master servers, and will be randomly multiplied by [1, 1.25) (default 300ms)
  -master.metrics.address string
    	Prometheus gateway address
  -master.metrics.intervalSeconds int
    	Prometheus push interval in seconds (default 15)
  -master.peers string
    	all master nodes in comma separated ip:masterPort list
  -master.port int
    	master server http listen port (default 9333)
  -master.port.grpc int
    	master server grpc listen port
  -master.raftHashicorp
    	use hashicorp raft
  -master.resumeState
    	resume previous state on start master server
  -master.volumePreallocate
    	Preallocate disk space for volumes.
  -master.volumeSizeLimitMB uint
    	Master stops directing writes to oversized volumes. (default 30000)
  -memprofile string
    	memory profile output file
  -metricsPort int
    	Prometheus metrics listen port
  -mq.broker
    	whether to start message queue broker
  -mq.broker.port int
    	message queue broker gRPC listen port (default 17777)
  -options string
    	a file of command line options, each line in optionName=optionValue format
  -rack string
    	current volume server's rack name
  -s3
    	whether to start S3 gateway
  -s3.allowDeleteBucketNotEmpty
    	allow recursive deleting all entries along with bucket (default true)
  -s3.allowEmptyFolder
    	allow empty folders (default true)
  -s3.auditLogConfig string
    	path to the audit log config file
  -s3.cert.file string
    	path to the TLS certificate file
  -s3.config string
    	path to the config file
  -s3.domainName string
    	suffix of the host name in comma separated list, {bucket}.{domainName}
  -s3.key.file string
    	path to the TLS private key file
  -s3.port int
    	s3 server http listen port (default 8333)
  -s3.port.grpc int
    	s3 server grpc listen port
  -volume
    	whether to start volume server (default true)
  -volume.compactionMBps int
    	limit compaction speed in mega bytes per second
  -volume.concurrentDownloadLimitMB int
    	limit total concurrent download size (default 64)
  -volume.concurrentUploadLimitMB int
    	limit total concurrent upload size (default 64)
  -volume.dir.idx string
    	directory to store .idx files
  -volume.disk string
    	[hdd|ssd|<tag>] hard drive or solid state drive or any tag
  -volume.fileSizeLimitMB int
    	limit file size to avoid out of memory (default 256)
  -volume.hasSlowRead
    	<experimental> if true, this prevents slow reads from blocking other requests, but large file read P99 latency will increase. (default true)
  -volume.images.fix.orientation
    	Adjust jpg orientation when uploading.
  -volume.index string
    	Choose [memory|leveldb|leveldbMedium|leveldbLarge] mode for memory~performance balance. (default "memory")
  -volume.index.leveldbTimeout int
    	alive time for leveldb (default to 0). If leveldb of volume is not accessed in ldbTimeout hours, it will be off loaded to reduce opened files and memory consumption.
  -volume.inflightUploadDataTimeout duration
    	inflight upload data wait timeout of volume servers (default 1m0s)
  -volume.max string
    	maximum numbers of volumes, count[,count]... If set to zero, the limit will be auto configured as free disk space divided by volume size. (default "8")
  -volume.minFreeSpace string
    	min free disk space (value<=100 as percentage like 1, other as human readable bytes, like 10GiB). Low disk space will mark all volumes as ReadOnly.
  -volume.minFreeSpacePercent string
    	minimum free disk space (default to 1%). Low disk space will mark all volumes as ReadOnly (deprecated, use minFreeSpace instead). (default "1")
  -volume.port int
    	volume server http listen port (default 8080)
  -volume.port.grpc int
    	volume server grpc listen port
  -volume.port.public int
    	volume server public port
  -volume.pprof
    	enable pprof http handlers. precludes --memprofile and --cpuprofile
  -volume.preStopSeconds int
    	number of seconds between stop send heartbeats and stop volume server (default 10)
  -volume.publicUrl string
    	publicly accessible address
  -volume.readBufferSizeMB int
    	<experimental> larger values can optimize query performance but will increase some memory usage,Use with hasSlowRead normally (default 4)
  -volume.readMode string
    	[local|proxy|redirect] how to deal with non-local volume: 'not found|read in remote node|redirect volume location'. (default "proxy")
  -webdav
    	whether to start WebDAV gateway
  -webdav.cacheCapacityMB int
    	local cache capacity in MB
  -webdav.cacheDir string
    	local cache directory for file chunks (default "/tmp")
  -webdav.cert.file string
    	path to the TLS certificate file
  -webdav.collection string
    	collection to create the files
  -webdav.disk string
    	[hdd|ssd|<tag>] hard drive or solid state drive or any tag
  -webdav.filer.path string
    	use this remote path from filer server (default "/")
  -webdav.key.file string
    	path to the TLS private key file
  -webdav.port int
    	webdav server http listen port (default 7333)
  -webdav.replication string
    	replication to create the files
  -whiteList string
    	comma separated Ip addresses having write permission. No limit if empty.
Description:
  start both a volume server to provide storage spaces
  and a master server to provide volume=>location mapping service and sequence number of file ids

  This is provided as a convenient way to start both volume server and master server.
  The servers acts exactly the same as starting them separately.
  So other volume servers can connect to this master server also.

  Optionally, a filer server can be started.
  Also optionally, a S3 gateway can be started.

翻译

weed server的参数翻译如下:

默认用法:

- -cpuprofile string:CPU分析输出文件
- -dataCenter string:当前卷服务器的数据中心名称
- -debug:提供运行时分析数据,例如http://localhost:6060/debug/pprof/goroutine?debug=2
- -debug.port int:调试的http端口(默认6060)
- -dir string:存储数据文件的目录。dir[,dir]...(默认“/tmp”)
- -disableHttp:禁用http请求,只允许gRPC操作。
- -filer:是否启动filer
- -filer.collection string:所有数据将存储在此集合中
- -filer.concurrentUploadLimitMB int:限制总并发上传大小(默认64)
- -filer.defaultReplicaPlacement string:默认复制类型。如果未指定,则使用主设置。
- -filer.dirListLimit int:限制子目录列表大小(默认1000)
- -filer.disableDirListing:关闭目录列表
- -filer.disk string:[hdd|ssd|<tag>]硬盘或固态硬盘或任何标签
- -filer.downloadMaxMBps int:每个下载请求的下载最大速度,以MB每秒为单位
- -filer.encryptVolumeData:在卷服务器上加密数据
- -filer.filerGroup string:与同一filerGroup中的其他filer共享元数据
- -filer.localSocket string:默认为/tmp/seaweedfs-filer-<port>.sock
- -filer.maxMB int:拆分大于限制的文件(默认4)
- -filer.port int:filer服务器http监听端口(默认8888)
- -filer.port.grpc int:filer服务器grpc监听端口
- -filer.port.public int:filer服务器公共http监听端口
- -filer.saveToFilerLimit int:小于此限制的小文件可以缓存在filer存储中。
- -filer.ui.deleteDir:启用filer UI显示删除目录按钮(默认为true)
- -iam:是否启动IAM服务
- -iam.port int:iam服务器http监听端口(默认8111)
- -idleTimeout int:连接空闲秒数(默认30)
- -ip string:IP或服务器名称,也用作标识符(默认“172.17.0.5”)
- -ip.bind string:要绑定的IP地址。如果为空,则默认为与-ip选项相同。
- -master:是否启动主服务器(默认为true)
- -master.defaultReplication string:如果未指定,则默认复制类型。
- -master.dir string:存储元数据的数据目录,默认与指定的-dir相同
- -master.electionTimeout duration:主服务器的选举超时(默认10s)
- -master.garbageThreshold float:清理和回收空间的阈值(默认0.3)
- -master.heartbeatInterval duration:主服务器的心跳间隔,并将随机乘以[1,1.25)(默认300ms)
- -master.metrics.address string:Prometheus网关地址
- -master.metrics.intervalSeconds int:Prometheus推送间隔(默认15秒)
- -master.peers string:逗号分隔的ip:masterPort列表中的所有主节点
- -master.port int:主服务器http监听端口(默认9333)
- -master.port.grpc int:主服务器grpc监听端口
- -master.raftHashicorp:使用hashicorp raft
- -master.resumeState:在启动主服务器时恢复以前的状态
- -master.volumePreallocate:为卷预分配磁盘空间。
- -master.volumeSizeLimitMB uint:主服务器停止将写入定向到超大卷。(默认30000)
- -memprofile string:内存分析输出文件
- -metricsPort int:Prometheus指标监听端口
- -mq.broker:是否启动消息队列代理
- -mq.broker.port int:消息队列代理gRPC监听端口(默认17777)
- -options string:命令行选项文件,每行以optionName=optionValue格式
- -rack string:当前卷服务器的机架名称
- -s3
    	是否启动S3网关
  -s3.allowDeleteBucketNotEmpty
    	允许递归删除所有条目以及存储桶(默认为true)
  -s3.allowEmptyFolder
    	允许空文件夹(默认为true)
  -s3.auditLogConfig string
    	审计日志配置文件的路径
  -s3.cert.file string
    	TLS证书文件的路径
  -s3.config string
    	配置文件的路径
  -s3.domainName string
    	主机名后缀,以逗号分隔,{bucket}.{domainName}
  -s3.key.file string
    	TLS私钥文件的路径
  -s3.port int
    	s3服务器的http监听端口(默认为8333)
  -s3.port.grpc int
    	s3服务器的grpc监听端口
  -volume
    	是否启动卷服务器(默认为true)
  -volume.compactionMBps int
    	限制压缩速度,以兆字节每秒为单位
  -volume.concurrentDownloadLimitMB int
    	限制总并发下载大小(默认为64)
  -volume.concurrentUploadLimitMB int
    	限制总并发上传大小(默认为64)
  -volume.dir.idx string
    	存储.idx文件的目录
  -volume.disk string
    	[hdd|ssd|<tag>] 硬盘或固态硬盘或任何标签
  -volume.fileSizeLimitMB int
    	限制文件大小以避免内存不足(默认为256)
  -volume.hasSlowRead
    	<实验性>如果为true,则可以防止缓慢的读取阻塞其他请求,但大文件读取P99延迟将增加。(默认为true)
  -volume.images.fix.orientation
    	上传时调整jpg方向。
  -volume.index string
    	选择[内存|leveldb|leveldbMedium|leveldbLarge]模式以实现内存~性能平衡。(默认为"memory")
  -volume.index.leveldbTimeout int
    	leveldb的存活时间(默认为0)。如果卷的leveldb在ldbTimeout小时内未被访问,则会卸载它以减少打开的文件和内存消耗。
  -volume.inflightUploadDataTimeout duration
    	卷服务器的inflight上传数据等待超时时间(默认为1m0s)
  -volume.max string
    	最大卷数,count[,count]...如果设置为零,则限制将自动配置为可用磁盘空间除以卷大小。(默认为"8")
  -volume.minFreeSpace string
    	最小可用磁盘空间(value<=100表示百分比,如1,其他表示人类可读的字节,如10GiB)。低磁盘空间将将所有卷标记为只读。
  -volume.minFreeSpacePercent string
    	最小可用磁盘空间(默认为1%)。低磁盘空间将将所有卷标记为只读(已弃用,请改用minFreeSpace)。 (默认为"1")
  -volume.port int
    	卷服务器的http监听端口(默认为8080)
  -volume.port.grpc int
    	卷服务器的grpc监听端口
  -volume.port.public int
    	卷服务器的公共端口
  -volume.pprof
    	启用pprof http处理程序。排除--memprofile和--cpuprofile
  -volume.preStopSeconds int
    	停止发送心跳和停止卷服务器之间的秒数(默认为10)
  -volume.publicUrl string
    	公开访问地址
  -volume.readBufferSizeMB int
    	<实验性> 较大的值可以优化查询性能,但会增加一些内存使用量,通常与hasSlowRead一起使用(默认值为4)
  -volume.readMode string
    	[local|proxy|redirect] 处理非本地卷的方式:'未找到|在远程节点中读取|重定向卷位置'。(默认值为“proxy”)
  -webdav
    	是否启动WebDAV网关
  -webdav.cacheCapacityMB int
    	本地缓存容量(以MB为单位)
  -webdav.cacheDir string
    	文件块的本地缓存目录(默认为“/tmp”)
  -webdav.cert.file string
    	TLS证书文件的路径
  -webdav.collection string
    	要创建文件的集合
  -webdav.disk string
    	[hdd|ssd|<tag>] 硬盘或固态硬盘或任何标签
  -webdav.filer.path string
    	使用filer服务器上的此远程路径(默认为“/”)
  -webdav.key.file string
    	TLS私钥文件的路径
  -webdav.port int
    	webdav服务器http监听端口(默认为7333)
  -webdav.replication string
    	要创建文件的复制品
  -whiteList string
    	具有写入权限的逗号分隔IP地址。如果为空,则没有限制。

描述:
  启动一个卷服务器以提供存储空间,并启动一个主服务器以提供卷=>位置映射服务和文件ID的序列号。

  这是一种方便的方式,可以同时启动卷服务器和主服务器。
  服务器的行为与分别启动它们完全相同。
  因此,其他卷服务器也可以连接到此主服务器。

  可选地,可以启动filer服务器。
  还可以选择启动S3网关。

weed filer命令

Example: weed filer -port=8888 -master=<ip:port>[,<ip:port>]*
Default Usage:
  -collection string
    	all data will be stored in this default collection
  -concurrentUploadLimitMB int
    	limit total concurrent upload size (default 128)
  -dataCenter string
    	prefer to read and write to volumes in this data center
  -debug
    	serves runtime profiling data, e.g., http://localhost:<debug.port>/debug/pprof/goroutine?debug=2
  -debug.port int
    	http port for debugging (default 6060)
  -defaultReplicaPlacement string
    	default replication type. If not specified, use master setting.
  -defaultStoreDir string
    	if filer.toml is empty, use an embedded filer store in the directory (default ".")
  -dirListLimit int
    	limit sub dir listing size (default 100000)
  -disableDirListing
    	turn off directory listing
  -disableHttp
    	disable http request, only gRpc operations are allowed
  -disk string
    	[hdd|ssd|<tag>] hard drive or solid state drive or any tag
  -downloadMaxMBps int
    	download max speed for each download request, in MB per second
  -encryptVolumeData
    	encrypt data on volume servers
  -filerGroup string
    	share metadata with other filers in the same filerGroup
  -iam
    	whether to start IAM service
  -iam.ip string
    	iam server http listen ip address (default "172.17.0.5")
  -iam.port int
    	iam server http listen port (default 8111)
  -ip string
    	filer server http listen ip address (default "172.17.0.5")
  -ip.bind string
    	ip address to bind to. If empty, default to same as -ip option.
  -localSocket string
    	default to /tmp/seaweedfs-filer-<port>.sock
  -master string
    	comma-separated master servers (default "localhost:9333")
  -maxMB int
    	split files larger than the limit (default 4)
  -metricsPort int
    	Prometheus metrics listen port
  -options string
    	a file of command line options, each line in optionName=optionValue format
  -port int
    	filer server http listen port (default 8888)
  -port.grpc int
    	filer server grpc listen port
  -port.readonly int
    	readonly port opened to public
  -rack string
    	prefer to write to volumes in this rack
  -s3
    	whether to start S3 gateway
  -s3.allowDeleteBucketNotEmpty
    	allow recursive deleting all entries along with bucket (default true)
  -s3.allowEmptyFolder
    	allow empty folders (default true)
  -s3.auditLogConfig string
    	path to the audit log config file
  -s3.cert.file string
    	path to the TLS certificate file
  -s3.config string
    	path to the config file
  -s3.dataCenter string
    	prefer to read and write to volumes in this data center
  -s3.domainName string
    	suffix of the host name in comma separated list, {bucket}.{domainName}
  -s3.key.file string
    	path to the TLS private key file
  -s3.port int
    	s3 server http listen port (default 8333)
  -s3.port.grpc int
    	s3 server grpc listen port
  -saveToFilerLimit int
    	files smaller than this limit will be saved in filer store
  -ui.deleteDir
    	enable filer UI show delete directory button (default true)
  -webdav
    	whether to start webdav gateway
  -webdav.cacheCapacityMB int
    	local cache capacity in MB
  -webdav.cacheDir string
    	local cache directory for file chunks (default "/tmp")
  -webdav.cert.file string
    	path to the TLS certificate file
  -webdav.collection string
    	collection to create the files
  -webdav.disk string
    	[hdd|ssd|<tag>] hard drive or solid state drive or any tag
  -webdav.filer.path string
    	use this remote path from filer server (default "/")
  -webdav.key.file string
    	path to the TLS private key file
  -webdav.port int
    	webdav server http listen port (default 7333)
  -webdav.replication string
    	replication to create the files
Description:
  start a file server which accepts REST operation for any files.

	//create or overwrite the file, the directories /path/to will be automatically created
	POST /path/to/file
	//get the file content
	GET /path/to/file
	//create or overwrite the file, the filename in the multipart request will be used
	POST /path/to/
	//return a json format subdirectory and files listing
	GET /path/to/

	The configuration file "filer.toml" is read from ".", "$HOME/.seaweedfs/", "/usr/local/etc/seaweedfs/", or "/etc/seaweedfs/", in that order.
	If the "filer.toml" is not found, an embedded filer store will be created under "-defaultStoreDir".

	The example filer.toml configuration file can be generated by "weed scaffold -config=filer"

Supported Filer Stores:
	arangodb
	cassandra
	etcd
	hbase
	leveldb
	leveldb2
	leveldb3
	mongodb
	mysql
	mysql2
	postgres
	postgres2
	redis
	redis2
	redis2_sentinel
	redis3
	redis3_sentinel
	redis_cluster
	redis_cluster2
	redis_cluster3

docker容器运行示例(docker run命令)

以下是一个在单个容器启动master、volume、filer服务的示例

docker run \
    -d -i -t \
    --name $CONTAINER_NAME \
    -p $MASTER_PORT:9333 \
    -p $FILER_PORT:8888 \
    -v $SCRIPT_LOCATION/mount/masterVolumeFiler/data/:/data/ \
    -v /etc/localtime:/etc/localtime:ro \
    $IMAGE_NAME:$IMAGE_TAG \
    server -filer

其中server就是前面提到的weed命令参数之一,表示在一个单一容器中同时启动master和volume服务,在我们的docker run命令中,它接在docker镜像:tag的后面;而-filer是一个weed server的参数的子参数,表示同时启动一个filer服务,这些参数都可以通过我们上面的参数表查到。

weed server 容器debug

需要映射出6060端口,同时加上-debug参数,如:server -filer -debug

然后容器起起来后,浏览器访问:

http://192.168.1.140:6060/debug/pprof/

在这里插入图片描述

点击就可访问各模块日志:

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/514848.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【多线程】单例模式

目录 饿汉模式 懒汉模式-单线程版 懒汉模式-多线程版 懒汉模式-多线程版(改进) 单例是一种设计模式。 啥是设计模式 ? 设计模式好比象棋中的 " 棋谱 ". 红方当头炮 , 黑方马来跳 . 针对红方的一些走法 , 黑方应招的时候有一些固定的套路. 按照套路来走局势…

5.11 C高级作业

编写一个名为myfirstshell.sh的脚本&#xff0c;它包括以下内容。 1、包含一段注释&#xff0c;列出您的姓名、脚本的名称和编写这个脚本的目的 2、和当前用户说“hello 用户名” 3、显示您的机器名 hostname 4、显示上一级目录中的所有文件的列表 5、显示变量PATH和HOME的…

高性能网络 SIG 月度动态:长期投入得到业界认可,新增一位 virtio reviewer

高性能网络 SIG&#xff08;Special Interest Group&#xff09; &#xff1a;在云计算时代&#xff0c;软硬件高速发展&#xff0c;云原生、微服务等新的应用形态兴起&#xff0c;让更多的数据在进程之间流动&#xff0c;而网络则成为了这些数据流的载体&#xff0c;在整个云时…

Hive概述和安装

hive简介 Hive&#xff1a;由Facebook开源用于解决海量结构化日志的数据统计工具。 Hive是基于Hadoop的一个数据仓库工具&#xff0c;将结构化的数据文件映射为一张表&#xff0c;并提供类SQL(HQL)查询功能。 Hive本质&#xff1a;将HQL转化成MapReduce程序 &#xff08;1&am…

无锁队列实现及使用场景

写在前面 在看无锁队列之前&#xff0c;我们先来看看看队列的操作。队列是一种非常重要的数据结构&#xff0c;其特性是先进先出&#xff08;FIFO&#xff09;&#xff0c;符合流水线业务流程。在进程间通信、网络通信间经常采用队列做缓存&#xff0c;缓解数据处理压力。根据…

device_node转换成platform_device

device_node转换成platform_device 文章目录 device_node转换成platform_device转换规则主要核心函数of_default_bus_match_tablearmarm64of_platform_register_reconfig_notifier Linux内核是如何将device_node转换成platform_deviceof_platform_populate函数处理根节点下的子…

在ubuntu连接Xlight FTP Server

一 在windows上搭建服务器 http://www.xlightftpd.com/download.htm 使用英文版&#xff0c;使防止在ubuntu中登录中文版时&#xff0c;显示乱码 新建用户和用户对应的服务器目录 如下所示&#xff0c;默认只有读权限 全都勾选 勾选完毕后的效果 在目录中放一个文件&#…

10款常用的原型设计工具,包含一键生成原型工具

原型图是产品设计师日常工作的“常客”&#xff0c;原型图软件也扮演着产品设计师的“武器”角色。 许多新产品设计师不知道如何选择原型图软件。本文盘点了10个优秀的原型图软件&#xff0c;让我们来看看。 1.即时设计 即时设计是一款免费的在线 UI 设计工具&#xff0c;无…

【Java数据结构】排序

排序 插入排序希尔排序选择排序堆排序冒泡排序快速排序序列的分割Hoare法挖坑法快慢指针法 优化1 - 三数取中优化2- 数据规模小时的插入 归并排序 插入排序 直接插入排序是一种简单的插入排序法&#xff0c;其基本思想是&#xff1a; 把待排序的记录按其关键码值的大小逐个插…

Jetson Orin环境安装Opencv+Cuda以及vscode环境配置

文章目录 一&#xff1a;Opencv Cuda源码的下载、编译1.卸载jetson上自带的无cuda加速Opencv2.安装Opencv依赖库3.下载 OpenCV 和 opencv_contrib 源码4.编译安装 OpenCV、opencv_contrib 二&#xff1a;Opencv 的环境配置三&#xff1a;Vscode 中的Opencv环境配置四&#xff…

系统分析师---系统建模相关高频考试知识点

系统规划---成本效益分析 评价信息系统经济效益常用的方法主要有成本效益分析法,投入产出分析法和价值工程方法。盈亏平衡法常用于销售定价; 可行性分析 系统规划是信息系统生命周期的第一个阶段,其任务是对企业的环境、目标以及现有系统的状况进行初步调查,根据企业目标…

张正友相机标定原理

相机标定 记录1.1 张正友相机标定相关 参考 记录 最小二乘法&#xff1a;A^T A x 0 奇异值分解的办法求解最小二乘法 因为可以假设标定板平面在世界坐标系Z0的平面上&#xff0c; 1.1 张正友相机标定相关 单目相机标定实现–张正友标定法(包含具体的实现以及C代码&#xff0…

《花雕学AI》ChatGPT Shortcut Chrome 扩展:让生产力和创造力加倍的 ChatGPT 快捷指令库

你是否想要与一个智能的对话伙伴聊天&#xff0c;或者让它帮你完成各种任务&#xff0c;如写作、编程、摘要、翻译等&#xff1f;如果是的话&#xff0c;你可能会对 ChatGPT 感兴趣。ChatGPT 是一个基于 GPT-3.5 的对话式人工智能&#xff0c;可以与用户进行自然、流畅、有趣的…

文件看不见了,内存还占着容量的找回教程

U盘文件突然不见了但还占用内存空间的解决方法 如果文件看不见了但内存占用仍然存在&#xff0c;可能是因为以下原因&#xff1a; 文件被隐藏。某些操作系统允许隐藏文件&#xff0c;这些文件只能在文件浏览器中被找到。 文件被损坏。如果文件损坏&#xff0c;它可能不会显示在…

Python图形化编程开源项目拼码狮PinMaShi

开源仓库 #项目地址 https://github.com/supercoderlee/pinmashi https://gitee.com/supercoderlee/pinmashiPinMaShi采用electron开发&#xff0c;图形化拖拽式编程有效降低编程难度&#xff0c;对Python编程的初学者非常友好&#xff1b;积木式编程加快Python程序的开发&…

黑马Redis笔记-高级篇

黑马Redis笔记-高级篇 1、Redis持久化&#xff08;解决数据丢失&#xff09;1.1 RDB持久化1.1.1 定义1.1.2 异步持久化bgsave原理 1.2 AOF持久化1.3 RDB和AOF比较 2、Redis主从&#xff08;解决并发问题&#xff09;2.1 搭建主从架构2.2 主从数据同步原理2.2.1 全量同步2.2.2 增…

基于哈里斯鹰算法优化的核极限学习机(KELM)分类算法 -附代码

基于哈里斯鹰算法优化的核极限学习机(KELM)分类算法 文章目录 基于哈里斯鹰算法优化的核极限学习机(KELM)分类算法1.KELM理论基础2.分类问题3.基于哈里斯鹰算法优化的KELM4.测试结果5.Matlab代码 摘要&#xff1a;本文利用哈里斯鹰算法对核极限学习机(KELM)进行优化&#xff0c…

【小梦C嘎嘎——启航篇】基本语法格式:namespace ?

基本语法格式&#xff1a;namespace &#xff1f;&#x1f60e; 前言&#x1f64c;namespace 是什么&#xff1f;namespace 的意义何在&#xff1f; 总结撒花&#x1f49e; &#x1f60e;博客昵称&#xff1a;博客小梦 &#x1f60a;最喜欢的座右铭&#xff1a;全神贯注的上吧&…

springboot + vue 部署 阿里云云服务器 ECS

安装所需文件 安装mysql5.7 下载MySQL的yum源配置 wget http://dev.mysql.com/get/mysql57-community-release-el7-11.noarch.rpm安装MySQL的yum源 yum -y install mysql57-community-release-el7-11.noarch.rpm使用yum方式安装MySQL5.7&#xff08;下载需要点时间&#xf…

【 断电延时继电器 电源监视 导轨安装 JOSEF约瑟 HJZS-E202 AC220V】

品牌&#xff1a;JOSEF约瑟型号&#xff1a;HJZS-E202名称&#xff1a;断电延时继电器额定电压&#xff1a;110、220VDC/AC&#xff1b;100VAC触点容量&#xff1a;250V/5A功率消耗&#xff1a;≤4.2W返回系数&#xff1a;10%额定电压 系列型号&#xff1a; HJZS-E202断电延时…