【大数据实训】—Hadoop开发环境搭建(一)

news2024/11/19 14:47:45

【大数据实训】—Hadoop开发环境搭建(一)

第一关、任务描述

本关任务:配置JavaJDK。

相关知识
配置开发环境是我们学习一门IT技术的第一步,Hadoop是基于Java开发的,所以我们学习Hadoop之前需要在Linux系统中配置Java的开发环境。

下载JDK
前往Oracle的官网下载JDK:点我前往Oracle的官网下载JDK
在这里插入图片描述
我们可以先下载到本地,然后从Windows中将文件传入到虚拟机中。

也可以复制链接地址,在Linux系统中下载,不过复制链接地址不能直接下载,因为Oracle做了限制,地址后缀需要加上它随机生成的随机码,才能下载到资源。

在这里插入图片描述
所以我们可以点击下载,然后暂停,最后在下载管理中复制链接地址就可以在Linux系统中下载啦。
在这里插入图片描述
因为JDK的压缩包有大概200M,所以我们已经在平台中为你下载好了JDK,不用你再去Oracle的官网去下载了,如果你要在自己的Linux系统中安装,那么还是需要下载的。

我们已经将JDK的压缩包放在系统的/opt目录下了,在命令行中切换至该目录下即可。

解压

首先在右侧命令行中创建一个/app文件夹,我们之后的软件都将安装在该目录下。
命令:mkdir /app

然后,切换到/opt目录下,来查看一下提供的压缩包。
在这里插入图片描述
可以看到我们已经帮你下载好了JDK和Hadoop的安装文件。

现在我们解压JDK并将其移动到/app目录下。

tar -zxvf jdk-8u171-linux-x64.tar.gz
mv jdk1.8.0_171/ /app

可以切换到/app目录下查看解压好的文件夹。
在这里插入图片描述
配置环境变量
解压好JDK之后还需要在环境变量中配置JDK,才可以使用,接下来就来配置JDK。
输入命令:vim /etc/profile 编辑配置文件;

在文件末尾输入如下代码(不可以有空格)。
在这里插入图片描述
然后,保存修改的配置文件。
保存方法:处于编辑模式下,先按 ESC 键,然后按 shift+: 之后,最后输入 wq 后,回车后就可以保存修改的配置文件。

最后:source /etc/profile使刚刚的配置生效。
测试
最后我们可以测试一下环境变量是否配置成功。
输入:java -version 出现如下界面代表配置成功。
编程要求
根据上述步骤完成Java开发环境的配置即可。

注意:因为下次再开启实训,环境会重置,所以最好的方式是一次性通过所有关卡。

开始配置JDK吧,go on。

📢📢简单粗暴法:不想码字的小伙伴可以把下面的代码直接复制到命令行,配置就完成啦!!!

mkdir /app
cd /opt
ll
tar -zxvf jdk-8u171-linux-x64.tar.gz >>/dev/null 2>&1
mv jdk1.8.0_171/ /app 
echo "JAVA_HOME=/app/jdk1.8.0_171" >> /etc/profile
echo "CLASSPATH=.:$JAVA_HOME/lib/tools.jar" >> /etc/profile
echo "PATH=$JAVA_HOME/bin:$PATH" >> /etc/profile
source /etc/profile
java -version

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

第二关

第2关:配置开发环境 - Hadoop安装与伪分布式集群搭建

任务描述
本关任务:安装配置Hadoop开发环境。

相关知识
下载Hadoop
我们去官网下载:http://hadoop.apache.org/
在平台上已经帮你下载好了(在/opt目录下),这里只是展示一下下载步骤。
在这里插入图片描述
输入wget下载Hadoop;

wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz

如果是生产环境就需要验证文件的完整性,在这里就偷个懒了。

由于解压包有大概300M,所以我们已经预先帮你下载好了,切换到/opt目录下即可看到。

接下来解压Hadoop的压缩包,然后将解压好的文件移动到/app目录下。在这里插入图片描述
我们来切换到app目录下修改一下hadoop文件夹的名字。在这里插入图片描述

提示:如果出现文件解压大小限制的情况,可以使用 ulimit -f 1000000 命令来解除限制。

配置Hadoop环境

设置SSH免密登录

在之后操作集群的时候我们需要经常登录主机和从机,所以设置SSH免密登录时有必要的。
输入如下代码:

ssh-keygen -t rsa -P ''

生成无密码密钥对,询问保存路径直接输入回车,生成密钥对:id_rsa和id_rsa.pub,默认存储在~/.ssh目录下。

接下来:把id_rsa.pub追加到授权的key里面去。

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

然后修改权限:chmod 600 ~/.ssh/authorized_keys

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

# The java implementation to use.  
#export JAVA_HOME=${JAVA_HOME}  
export JAVA_HOME=/app/jdk1.8.0_171

在这里插入图片描述

export JAVA_HOME=/app/jdk1.8.0_171

在这里插入图片描述

<configuration>  
 <property>  
    <name>fs.default.name</name>  
    <value>hdfs://localhost:9000</value>  
    <description>HDFS的URI,文件系统://namenode标识:端口号</description>  
</property>  
  
<property>  
    <name>hadoop.tmp.dir</name>  
    <value>/usr/hadoop/tmp</value>  
    <description>namenode上本地的hadoop临时文件夹</description>  
</property>  
</configuration>  

在这里插入图片描述

<configuration>  
<property>  
    <name>dfs.name.dir</name>  
    <value>/usr/hadoop/hdfs/name</value>  
    <description>namenode上存储hdfs名字空间元数据 </description>   
</property>  
  
<property>  
    <name>dfs.data.dir</name>  
    <value>/usr/hadoop/hdfs/data</value>  
    <description>datanode上数据块的物理存储位置</description>  
</property>  
  
<property>  
    <name>dfs.replication</name>  
    <value>1</value>  
</property>  
</configuration>  

mapred-site.xml文件配置

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

yarn-site.xml配置

<configuration>  
<property>  
        <name>yarn.nodemanager.aux-services</name>  
        <value>mapreduce_shuffle</value>  
</property>  
<property>  
        <name>yarn.resourcemanager.webapp.address</name>  
        <value>192.168.2.10:8099</value>  
        <description>这个地址是mr管理界面的</description>  
</property>  
</configuration>  

创建文件夹
我们在配置文件中配置了一些文件夹路径,现在我们来创建他们,在/usr/hadoop/目录下使用hadoop用户操作,建立tmp、hdfs/name、hdfs/data目录,执行如下命令:

mkdir -p /usr/hadoop/tmp 
mkdir /usr/hadoop/hdfs 
mkdir /usr/hadoop/hdfs/data 
mkdir /usr/hadoop/hdfs/name

将Hadoop添加到环境变量中
vim /etc/profile
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

还有,start-yarn.sh,stop-yarn.sh顶部也需添加以下:

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

再次启动start-dfs.sh,最后输入命令 jps 验证,出现如下界面代表启动成功:
在这里插入图片描述
之后如果你本地虚拟机是图形化界面,可以在你虚拟机的图形化界面中打开火狐浏览器输入:http://localhost:9870/ 或者在你本地windows机器上输入http://虚拟机ip地址:9870/ 也可以访问hadoop的管理页面。
在这里插入图片描述
好了到了这一步Hadoop就安装完成了。

📢📢简单粗暴法:不想码字的小伙伴可以把下面的代码直接复制到命令行,配置就完成啦!!!



mkdir /app
cd /opt
ll
tar -zxvf jdk-8u171-linux-x64.tar.gz >>/dev/null 2>&1
mv jdk1.8.0_171/ /app 
echo "JAVA_HOME=/app/jdk1.8.0_171" >> /etc/profile
echo "CLASSPATH=.:$JAVA_HOME/lib/tools.jar" >> /etc/profile
echo "PATH=$JAVA_HOME/bin:$PATH" >> /etc/profile
source /etc/profile
java -version




tar -zxvf /opt/hadoop-3.1.0.tar.gz -C /app >>/dev/null 2>&1
mv /app/hadoop-3.1.0 /app/hadoop3.1 2>/dev/null
ssh-keygen -t rsa -P '' <<< $'\n'
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys

echo "AuthorizedKeysFile %h/.ssh/authorized_keys" >> /etc/ssh/sshd_config
echo "export JAVA_HOME=/app/jdk1.8.0_171" >> /app/hadoop3.1/etc/hadoop/hadoop-env.sh
echo "export JAVA_HOME=/app/jdk1.8.0_171" >> /app/hadoop3.1/etc/hadoop/yarn-env.sh


sed -i 's|</configuration>||g' /app/hadoop3.1/etc/hadoop/core-site.xml
sed -i 's/<configuration>//g' /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<configuration>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<property>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<name>fs.default.name</name>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<value>hdfs://localhost:9000</value>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<description>HDFSURI://namenode</description>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "</property>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<property>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<name>hadoop.tmp.dir</name>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<value>/usr/hadoop/tmp</value>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "<description>namenode</description>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "</property>" >> /app/hadoop3.1/etc/hadoop/core-site.xml
echo "</configuration>" >> /app/hadoop3.1/etc/hadoop/core-site.xml

sed -i 's|</configuration>||g' /app/hadoop3.1/etc/hadoop/hdfs-site.xml
sed -i 's/<configuration>//g' /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<configuration>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<property>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<name>dfs.name.dir</name>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<value>/usr/hadoop/hdfs/name</value>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<description>namenode</description>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "</property>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<property>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<name>dfs.data.dir</name>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<value>/usr/hadoop/hdfs/data</value>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<description>datanode</description>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "</property>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<property>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<name>dfs.replication</name>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "<value>1</value>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "</property>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml
echo "</configuration>" >> /app/hadoop3.1/etc/hadoop/hdfs-site.xml

sed -i 's|</configuration>||g' /app/hadoop3.1/etc/hadoop/mapred-site.xml
sed -i 's/<configuration>//g' /app/hadoop3.1/etc/hadoop/mapred-site.xml
echo "<configuration>" >> /app/hadoop3.1/etc/hadoop/mapred-site.xml
echo "<property>" >> /app/hadoop3.1/etc/hadoop/mapred-site.xml
echo "<name>mapreduce.framework.name</name>" >> /app/hadoop3.1/etc/hadoop/mapred-site.xml
echo "<value>yarn</value>" >> /app/hadoop3.1/etc/hadoop/mapred-site.xml
echo "</property>" >> /app/hadoop3.1/etc/hadoop/mapred-site.xml
echo "</configuration>" >> /app/hadoop3.1/etc/hadoop/mapred-site.xml


sed -i 's|</configuration>||g' /app/hadoop3.1/etc/hadoop/yarn-site.xml
sed -i 's/<configuration>//g' /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "<configuration>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "<property>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "<name>yarn.nodemanager.aux-services</name>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "<value>mapreduce_shuffle</value>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "</property>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "<property>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "<name>yarn.resourcemanager.webapp.address</name>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "<value>192.168.2.10:8099</value>">> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "<description></description>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "</property>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml
echo "</configuration>" >> /app/hadoop3.1/etc/hadoop/yarn-site.xml



mkdir -p /usr/hadoop/tmp
mkdir /usr/hadoop/hdfs
mkdir /usr/hadoop/hdfs/data
mkdir /usr/hadoop/hdfs/name

echo "export HADOOP_HOME=/app/hadoop3.1" >> /etc/profile
echo "export PATH=\$PATH:\$HADOOP_HOME/bin:\$HADOOP_HOME/sbin" >> /etc/profile

source /etc/profile

hadoop namenode -format

start-yarn.sh


sed -i "2a\HDFS_DATANODE_USER=root" /app/hadoop3.1/sbin/start-dfs.sh
sed -i "2a\HADOOP_SECURE_DN_USER=hdfs" /app/hadoop3.1/sbin/start-dfs.sh
sed -i "2a\HDFS_NAMENODE_USER=root" /app/hadoop3.1/sbin/start-dfs.sh
sed -i "2a\HDFS_SECONDARYNAMENODE_USER=root" /app/hadoop3.1/sbin/start-dfs.sh


sed -i "2a\HDFS_DATANODE_USER=root" /app/hadoop3.1/sbin/stop-dfs.sh
sed -i "2a\HADOOP_SECURE_DN_USER=hdfs" /app/hadoop3.1/sbin/stop-dfs.sh
sed -i "2a\HDFS_NAMENODE_USER=root" /app/hadoop3.1/sbin/stop-dfs.sh
sed -i "2a\HDFS_SECONDARYNAMENODE_USER=root" /app/hadoop3.1/sbin/stop-dfs.sh

sed -i "2a\YARN_RESOURCEMANAGER_USER=root" /app/hadoop3.1/sbin/stop-yarn.sh
sed -i "2a\HADOOP_SECURE_DN_USER=yarn" /app/hadoop3.1/sbin/stop-yarn.sh
sed -i "2a\YARN_NODEMANAGER_USER=root" /app/hadoop3.1/sbin/stop-yarn.sh

sed -i "2a\YARN_RESOURCEMANAGER_USER=root" /app/hadoop3.1/sbin/start-yarn.sh
sed -i "2a\HADOOP_SECURE_DN_USER=yarn" /app/hadoop3.1/sbin/start-yarn.sh
sed -i "2a\YARN_NODEMANAGER_USER=root" /app/hadoop3.1/sbin/start-yarn.sh

  
start-dfs.sh
  
 
   
jps

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

如果还是有不明白的小伙伴欢迎评论区留言!!!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/562798.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Flowable钉钉对接005-完成钉钉任务

企业中有自己的业务系统&#xff0c;审批都在业务系统中审批&#xff0c;如何结合移动办公的开放平台实现统一审批至关重要。 场景很简单&#xff0c;自己的系统中可以审批&#xff0c;钉钉上也可以审批&#xff0c;使用H5来适配&#xff0c;统一待办任务 统一待办审批 目标&am…

python获取tx弹幕数据并制作词云图

前言 大家早好、午好、晚好吖 ❤ ~欢迎光临本文章 知识点介绍: 爬虫基本思路流程 requests模块的使用 pandas读取表格数据 环境介绍: 开发环境: python 3.8 运行代码 pycharm 2022.3 辅助敲代码 模块使用&#xff1a; requests >>> pip install requests pa…

​年轻人的情绪,都藏在知乎的短故事里

“谢邀&#xff0c;与世界分享我刚编的故事。” 这是一句在知乎被调侃的老梗。它源自于知乎上有众多隐匿的大佬&#xff0c;他们经历过各种奇闻轶事&#xff0c;也乐于分享传奇的人生经历&#xff0c;而这其间&#xff0c;很多真假难辨的事迹&#xff0c;也被很多用户笑称可以当…

这几款好用的软件分享给你

软件一&#xff1a;Handbrake Handbrake是一款免费开源的视频转码软件&#xff0c;适用于Mac、Windows和Linux系统。它可以将几乎所有视频格式转换为其他格式&#xff0c;包括MP4、MKV、AVI等等。作为一个强大的视频编码器&#xff0c;它可以压缩视频大小&#xff0c;并提供多…

Android Qcom USB Driver学习(十一)

该系列文章总目录链接与各部分简介&#xff1a; Android Qcom USB Driver学习(零) 基于TI的Firmware Update固件升级的流程分析usb appliction layers的数据 USB Protocol Package ①/② map to check password correct Package Format: Byte[0] Report Id Byte[1] Valid L…

玩转SpringCloud Alibaba,看阿里大佬的笔记是真香

大家都知道&#xff0c;SpringCloudAlibaba 风靡 Java 开发行业&#xff0c;各个公司都在用这套技术&#xff0c;所以咱们 Java 工程师不管是日常工作或是出去面试&#xff0c;都会用到或者被问到关于SpringCloudAlibaba的应用以及底层原理 所以说&#xff0c;小编下面带来一份…

用于视频编辑和渲染的最佳GPU是什么?

购买新的图形卡&#xff08;GPU&#xff09;可能很困难&#xff0c;尤其是如果涉及您所不熟悉的所有技术问题。 显卡市场上的大多数消费者只需要了解显卡在自己喜欢的游戏中的性能&#xff0c;并确定购买决定即可。但是&#xff0c;如果您想购买GPU进行视频编辑或3D渲染&#…

网络安全工程师考证指南

已经到2023年了&#xff0c;那么信息安全类证书最有前途的有哪些呢&#xff1f;今天和大家一起聊聊这个话题&#xff01; 1.CISP(国家登记的信息安全专业人员) 就CISP而言&#xff0c;安全实践者基本耳闻&#xff0c;算是国内权威认证&#xff0c;毕竟有政府背景为认证做背书&…

微服务环境搭建(spring cloud Alibaba)(一)

模块: 商品模块, 订单模块, 用户模块 一. 1. 技术选型以及准备工作 maven : 3.8.8版本 数据库: MySQL 8.0.32 持久层: springData , jpa 其他java环境 : SpringCloud Alibaba 技术栈 2. 模块 设计 springcloud- alibaba 父工程 shop - common 公共模块 [ 实体类 ] sh…

【技术】多端能力服务统一是一种关键的技术和架构

多端能力服务统一是一种关键的技术和服务架构&#xff0c;旨在为不同终端设备提供一致的用户体验和功能。通过采用前端和后端技术的组合&#xff0c;如响应式 Web 设计、PWA、跨平台移动应用开发框架、RESTful API、GraphQL、WebSocket、Serverless 架构和微服务架构&#xff0…

实现并测试协同滤波算法

访问【WRITE-BUG数字空间】_[内附完整源码和文档] 本次实验实现了基于用户和基于项的协同滤波算法&#xff0c;并在 Movielens 两个较小的数据集上进行了测试&#xff0c;测试采用 RMSE 进行评估 一、问题简述 1.1 推荐系统问题 推荐系统问题旨在用户推荐相关项&#xff0c;项…

如何利用CiteSpace快速锁定领域内最新研究热点并制作精美的可视化专题图

在科研工作中&#xff0c;我们常常需要面对海量的文献进行阅读和分析&#xff0c;如何在这些文献当中找出值得精读、细读的关键文献&#xff0c;挖掘学科前沿&#xff0c;找到研究热点就成为了开展研究之前首先需要解决的问题。CiteSpace作为一款优秀的文献计量学软件&#xff…

六、数据仓库详细介绍(ETL)经验篇

0x00 前言 日常工作中大多数时候都是在做数据开发&#xff0c;ETL 无处不在。虽然最近两年主要做的大数据开发&#xff0c;但感觉日常干的这些还是 ETL 那点事儿&#xff0c;区别只是技术组件全换了、数据量大了很多。 前几年数仓势微&#xff0c;是因为传统的那些工具数据库等…

每个程序员必备的基础设施--Codeium

自从 chartGPT3 横空出世以后&#xff0c;AI 技术越来越深入到每个人的生活中&#xff0c;这里不谈 AI 到底是不是真的存在着类人的思想和智慧&#xff0c;也不谈是否取代人类的问题。本着实用主义的原则&#xff0c;先让它能为我所用。 我在工作中已经深入使用了 chartGPT 和…

【详解栈Stack与队列Queue】

&#x1f320;作者&#xff1a;TheMythWS. &#x1f386;专栏&#xff1a;《集合与数据结构》 &#x1f387;座右铭&#xff1a;不走心的努力都是在敷衍自己&#xff0c;让自己所做的选择&#xff0c;熠熠发光。 目录 栈 ( Stack ) 栈的概念 栈的使用 栈的模拟实现 栈…

idea的这款代码提示插件爱了

前言 Idea 是一款功能强大的集成开发环境&#xff08;IDE&#xff09;&#xff0c;它可以帮助开发人员更加高效地编写、调试和部署软件应用程序,Idea 还具有许多插件和扩展&#xff0c;可以根据开发人员的需要进行定制和扩展&#xff0c;从而提高开发效率,今天我们就来介绍一款…

Fourier分析入门——第7章——采样理论

目录 第 7 章 采样定理 7.1 引言 7.2 采样定理 7.3 错误识别(aliasing) 7.4 Parseval定理(Parseval[pzeifa:l]) 7.5 截断Fourier级数和回归理论(Truncated Fourier Series & Regression Theory) 第 7 章 采样定理 7.1 引言 在第 6 章中&#xff0c;我们发现有限区…

测试还是测开为你做个分析,让你少走弯路

软件测试和测试开发都是软件开发声明周期中非常重要的环节&#xff0c;缺一不可。当然了这两者还有区别的&#xff0c;比如果薪资待遇&#xff0c;开发要比测试待遇好&#xff0c;但测试里面功能测试和性能测试待遇又不同&#xff0c;掌握的技术不同、工龄都会有影响。 平均工…

一般小型企业,一个CRM系统要多少钱?都有哪些功能?

客户关系管理crm多少钱一套&#xff1f; 不同CRM要价不同&#xff0c;甚至同一款CRM产品在不同客户方部署下来的价格也是有差别的。 这篇给大家分享几款可实操的CRM管理软件的价位&#xff0c;有需要的可以做以参考&#xff01; 一、简道云CRM管理系统 模版地址&#xff1a;…

中国智造数据分析,预计2025年中国智能制造市场规模将达5.3万亿元

中国智造是制造强国建设主攻方向&#xff0c;也是中国制造公司可以提升核心竞争力的主要研究路径。智能制造成熟度水平能很好的衡量一个地区智能制造的发展水平。 分析全国成熟度二级及以上的企业数量分布&#xff0c;从图分析可以很直观的看出成熟度二级以上的企业数量主要分…