【R语言】基于Biomod2集成平台探究物种分布区的构建流程(SDMs)(持续更新中。。。。。。)

news2024/9/20 8:50:29

Species Distribution Models

  • 1.写在前面
  • 2.物种分布模型介绍
  • 3.输入数据准备及预处理
    • 3.1.如何从GBIF网站上获取分布点数据(基于rgbif包)
    • 3.2.分布点稀疏处理(基于spThin函数)
    • 3.3.如何获取环境变量数据(基于getData函数)
    • 3.4.环境变量多重共线性分析
  • 4.Biomod2模型构建(v.3.5.1)

1.写在前面

  我为什么想要写这个内容呢? 其实我已经想了很久了,但是一直没有把所有的代码给理清楚,此外这将是我之后研究的主要方向。我对这个方向已经有了初步的了解,看到的满是绝望和不甘。就我个人看法,这个方向已经过了它的热潮,目前正处于低谷期,无人问暇。因此,今年上半年我曾经有一段时间非常痛苦,辗转反侧,我不知道方向还有研究的价值或者必要吗?已经有很多人做过这个方向了,我再来做还有用吗?能提升吗?实际上,可能大多数人只是把这个作为一个应用的工具(水论文),而不是深入的探究,因此我认为只是做应用层面的,这个方向已经饱和了,而我们想要继续深挖下去,就得更加了解其原理和意义,与实际情况相结合才能用更好的产出(如生物多样性保护等)。目前来说物种分布模型(Species Distribution Models,SDMs)已经有很多人在研究了,包括国内的中科院动物所乔慧捷老师、中科院青藏高原所的郭彦龙老师、以及法国科学院的Wilfried Thuiller教授(Biomod2包的发明者)。
  现在,我把我的所有SDMs的构建流程进行记录,希望对相关研究方向的学者有所助益。
在这里插入图片描述

2.物种分布模型介绍

  目前常用的SDMs有单一模型和集成模型,考虑到单个模型的优点和缺点,使用整体模型可能更安全。其中,Biomod2平台是目前常用的集成平台,它包括了十个不同类型的模型:

  • 三个回归模型:广义线性模型(generalized linear model, GLM);多元自适应回归样条(multivariate adaptive regression splines, MARS),广义加法模型(generalized additive models, GAM);
  • 五个机器学习模型:人工神经网络(artificial neural network, ANN),最大熵(maximum entropy, MaxEnt),随机森林(random forest, RF)和广义助推模型(generalized boosting model, GBM),分类树分析(classification tree analysis, CTA)、
  • 一个分类模型:灵活判别分析(flexible discriminant analysis, FDA)
  • 一个范围包络:表面分布区分室模型(surface range envelope, SRE)

在这里插入图片描述

  如果你想继续了解SDMs的研究方向和基本知识,我推荐你阅读以下几篇 综诉类文献:

[1] 郭彦龙,赵泽芳,乔慧捷,等.物种分布模型面临的挑战与发展趋势[J].地球科学进展,2020,35(12):1292-1305.

在这里插入图片描述

[2] 刘晓彤,袁泉,倪健.中国植物分布模拟研究现状[J].植物生态学报,2019,43(04):273-283.

在这里插入图片描述

[3] 许仲林,彭焕华,彭守璋.物种分布模型的发展及评价方法[J].生态学报,2015,35(02):557-567.

在这里插入图片描述

3.输入数据准备及预处理

  首先我们需要知道构建SDMs需要哪些要素:物种分布点数据(Species occurrence data)和环境变量数据(Environmental data),分布点数据可从几个地方进行获取,首先是全球生物多样性网络(GBIF)、中国数字植物标本馆(CVH)、NSII-中国国家标本资源平台以及自己的野外调查数据。

在这里插入图片描述

3.1.如何从GBIF网站上获取分布点数据(基于rgbif包)

##需要改四个地方的物种名 ----
setwd("D:/SDMs/Thesis/Data/")
library(mapdata)
library(sp)
library(sf)
library(raster)
library(ggplot2) 
library(CoordinateCleaner)
library(rgbif)
library(dplyr) 
library(beepr)# 这个包是用来进行声音提示的


#第一步:使用''rgbif'' 包从 GBIF 中搜索与目标物种小叶栎(Quercus chenii)相关的数据------
key <- name_suggest(q="Quercus chenii", rank='species')$data$key[1]
key #物种识别号:2879172
occ_count(taxonKey=key, georeferenced=TRUE,
          basisOfRecord = "PRESERVED_SPECIMEN"
          ) 
# 266,目前,GBIF 数据库中有 266 条基于博物馆的记录是具有经纬度信息的。
# 需要注意的是,因为数据库一直在更新,这个数字可能会变动,
# 因此使用本流程过程中可能会有部分数值有一些小范围的变动。

data <- occ_search(scientificName = "Quercus chenii", limit= 10000, 
                   hasCoordinate = TRUE, basisOfRecord= "PRESERVED_SPECIMEN"
                   # ,country = "CN" # 将物种限定在中国境内
                   ) #这一步需要 1-2 分钟完成,具体看网速和物种分布数量。
beepr::beep(8) # 上面代码运行结束会有声音提示
str(data$data) 
data$meta # 查看有多少个物种分布点
names(data$data) #检查数据的列名,一共有162列数据
head(data$data[,c("countryCode","country")]) # 例如:检查 54 列和 57 列的列名

datasel<-data$data %>% 
  dplyr::select(species, decimalLongitude,
                decimalLatitude,country,coordinateUncertaintyInMeters) %>%
  rename(Species = species, Long = decimalLongitude, Lat =
           decimalLatitude, Uncertain=coordinateUncertaintyInMeters) %>%
  mutate (Species = as.factor(Species), country=
            as.factor(country))

datasel # 现在有了一个包含266 行、5 列数据:Species、Long、Lat、country、Uncertain

datasel %>% group_by(country) %>% summarize(total= n()) %>%
  arrange(desc(total)) # GBIF 检索的数据集中每个国家的记录数量
# write.csv(datasel, "Quercus acutissima Carruth.csv")

#第二步:使用 CoordinateCleaner 包删除有问题的分布记录--------------------------
map('worldHires', col=1:10)
# plot(world_map, col="tan2",bg="lightblue", border= NA) #图示地图。
points(datasel$Long, datasel$Lat, bg="red", col='white', pch=21, cex=1.0)
#将从 GBIF 下载的数据映射到地图上 (图 9)。
datasel %>% filter(Long==0, Lat==0) # 统计经纬度等于零的记录 

problem_records<- clean_coordinates(datasel, lon = "Long", lat = "Lat", 
                                    species = "Species",
                                    tests = c("capitals", "centroids", 
                                               "equal","institutions",
                                              "zeros", "seas")) 
# 检测记录点坐标是否围绕首都、国家的中心
# 是否落入海洋,为零,或在饲养动物的博物馆(机构)周围。 
summary(problem_records) # 2个有问题的分布点被发现

datasel_problematic <- datasel[which(problem_records$.summary==
                                       "FALSE"),] #只选择有问题的点。
# 查看有问题分布点的位置
map('worldHires', col=1:10)
points(datasel_problematic$Long, datasel_problematic$Lat, bg="red", 
       col='white', pch=22, cex=0.8) # 将有问题的点映射到地图上

# 从数据集中排除所有有问题的记录
datasel_clean <- datasel[which(problem_records$.summary== "TRUE"),]
str(datasel_clean) # 现在还剩下264个正常分布点数据

# 删除坐标中具有较高不确定性的记录。
# 看看有多少个体有这样的信息,并把值的范围图像化 
summary(is.na(datasel_clean$Uncertain))
hist(datasel_clean$Uncertain/1000, breaks = 10,
     main="Coordinate uncertainy in km", xlab= "Uncertainty in km")
# 注意,GBIF 提供的信息是以米为单位
# 但是为了评估不确定性,使用千米为单位更加方便。 (图 13)。
# 这个命令中用于选择“信息不确定”的点,或者是数值<10 km 以下的点。
datasel_cleanF<-datasel_clean %>% filter(is.na(Uncertain)| Uncertain/1000 < 10)
#最后一步是删除重复的记录。
datasel_cleanF <- datasel_cleanF %>% distinct(Long, Lat,.keep_all=T) 
str(datasel_cleanF) # 图 14。

#以下代码可以图示这个最终数据集。
map('worldHires', col=1:10)
points(datasel_cleanF$Long, datasel_cleanF$Lat, bg="blue", col='white', 
       pch=21, cex=0.5) # 图 15
# 最后记得将数据保存下来
write.csv(datasel_cleanF, "Quercus chenii_gbif.csv")

  如果你想要从CVH网站上获得分布点数据,就需要自己去查看里面的标本记录,然后手动记录下来,这个过程可能比较繁琐,目前没有相关的包能够获取上面的记录。

3.2.分布点稀疏处理(基于spThin函数)

  为了防止数据空间自相关性对模拟结果的影响,通常需要对分布点数据进行稀疏处理,如10km范围内只保留一个分布点数据。目前常用的方法是在ArcGIS中安装SDMtoolbox (v.2.5) 小插件,并使用其中所提供的 “Spatially Rarefy Occurence Data” 功能进行处理。但是采用这样的方式有时候会报让人摸不着头脑的错误,所以我提供了一个使用R语言进行稀疏处理的方法,如下:

## thin----------------------------------------------
setwd("C:\\Users\\YP\\Desktop\\SDMData")
# library(wallace)
library(spThin) # v.0.2.0
library(readxl)
library(mapdata)
# run_wallace()   ##运行run后可直接进入到浏览器界面

QuercusL <- read.csv("Quercus chenii_gbif.csv", sep = ",")
head(QuercusL)
summary(QuercusL)

# remove rows with duplicate coordinates
occs.dups <- duplicated(QuercusL[c('Long', 'Lat')])
occs <- QuercusL[!occs.dups,]
# remove NAs
occs <- occs[complete.cases(occs$Long, occs$Lat), ]
summary(occs)

output <- spThin::thin(occs, 'Lat', 'Long', 'Species', 
                       thin.par = 10, reps = 100, # 稀疏距离参数thin.par设置为10km,并重复运行100次
                       locs.thinned.list.return = TRUE,
                       write.files = FALSE,
                       verbose = TRUE)
plotThin(output)

# 基于最优迭代构建最优输出
maxThin <- which(sapply(output, nrow) == max(sapply(output, nrow)))
# if there's more than one max, pick the first one
maxThin <- output[[ifelse(length(maxThin) > 1, maxThin[1], maxThin)]]  
# subset occs to match only thinned occs
occs <- occs[as.numeric(rownames(maxThin)),]
write.csv(occs,"./Quercus chenii_gbif_occs.csv")

# plot
map('worldHires', 'China')
points(occs$Long, occs$Lat, bg="red", col='white', pch=21, cex=1.0)

分布点空间位置:

3.3.如何获取环境变量数据(基于getData函数)

  目前,常用的大尺度空间数据主要由WorldClim提供,我之前写了一篇关于如何下载该数据的方法,感兴趣的可以看看:Worldclim(v1.4、v2.1)数据集使用介绍
  在这里我可以提供另一种方法:使用R语言下载数据。代码如下:

##使用"Raster"包从 WorldClim 下载环境数据--------------------------------
# 目前该函数只提供了下载2.5, 5, 和 10 min的空间分辨率下的数据,且来源于worldclim1.4(CMIP5)
bioclim<-getData('worldclim', var="bio", res=5) #把 19 个5min分辨率的气候数据图层下载到本地

Future_bioclim2<-getData('CMIP5', var='tmin', res=10, rcp=85, model='AC', year=70) # 获取未来气候数据
names(bioclim) #查看存储在"bioclim"对象中的不同气候变量层的名称

  我可能不太建议使用R代码来下载数据,因为这可能受到网速的限制,导致下载突然中断,所以直接到官网里面下载,这样也很方便。
  当然还可以使用CHELSA数据集,这是由瑞士森林雪和景观研究所(WSL)提供的。现在也有很多研究使用该数据:
在这里插入图片描述

在这里插入图片描述

3.4.环境变量多重共线性分析

  在构建SDMs时,会存在不同环境变量对分布分布点的贡献程度相似,即可看做这几个变量对物种分布的作用相同,因此为了降低模型拟合的不确定性,就需要从这几个变量中选择一个贡献度最高,最关键的环境变量,因此就需要使用多重共线性分析。常用的方法为Pearson相关性系数以及方差膨胀因子(VIF)。其中Pearson相关性系数和VIF计算方法如下:

library(raster)
library(pheatmap) 
library(usdm)
setwd("C:/Users/YP/Desktop/SDMData")


quercus <- read.csv("Quercus chenii_gbif_occs.csv", sep = ",")
summary(quercus)
current_folder1 <- "C:/Users/YP/Desktop/Data/"
# 气候因子1
current_bio <- stack(paste0(current_folder1,
                            c("wc2.1_30s_bio_1","wc2.1_30s_bio_2",
                              "wc2.1_30s_bio_3","wc2.1_30s_bio_4",
                              "wc2.1_30s_bio_5","wc2.1_30s_bio_6",
                              "wc2.1_30s_bio_7","wc2.1_30s_bio_8",
                              "wc2.1_30s_bio_9","wc2.1_30s_bio_10",
                              "wc2.1_30s_bio_11","wc2.1_30s_bio_12",
                              "wc2.1_30s_bio_13","wc2.1_30s_bio_14",
                              "wc2.1_30s_bio_15","wc2.1_30s_bio_16",
                              "wc2.1_30s_bio_17","wc2.1_30s_bio_18",
                              "wc2.1_30s_bio_19"
                            ),
                            ".tif")
)
# 修改变量名
new_names1 <- paste0("bio", 1:19)
names(current_bio) <- new_names1

# 地形因子2
current_topo <- stack(paste0(current_folder1,
                             c("DEM_2023", "Aspect", "Slope"),
                             ".tif")
)
new_names2 <- c("Elevation", "Aspect", "Slope")
names(current_topo) <- new_names2

# 土壤因子3
current_soil <- stack(paste0(current_folder1,
                             c("BD1","PH1", "TK1",
                               "TN1","TP1","soil_1km1"),
                             ".tif")
)
new_names3 <- c("BD","pH","TK","TN","TP","SoilType")
names(current_soil) <- new_names3

# 将以上不同变量数据合并为一个叠加图层
(current <- stack(current_bio, current_topo, current_soil))

# 进行坐标转换,将分布点数据转换为环境数据空间投影格式,即WGS1984
longlat <- as.data.frame(quercus[, c(4:5)]) # Long Lat
coordinates(longlat) <- c("Long", "Lat") # 这里只能是Long在前,Lat在后,不然下一行代码会报错!!!
proj4string(longlat) <- CRS("+proj=longlat +datum=WGS84")
UTM_Proj <- CRS(st_crs(current)$proj4string)
xy <- spTransform(longlat, UTM_Proj)

# 检查坐标系是否一致
if (st_crs(current)$proj4string == st_crs(xy)$proj4string) {
  print("坐标系转换结果:坐标系相同")
} else {
  print("坐标系转换结果:坐标系不同")
}

# 从所有的记录中提取环境因子对应值
data <- raster::extract(current, xy)
data_na <- na.omit(data)

# 构建pearson相关分析(pearson>0.80)
cor_matrix <- cor(data_na, method = "pearson") # R在带stats包
cor_matrix
# dev.off() # 聚类热图绘制报错时可以使用,这可以清除之前可能干扰当前绘图的图形设置
pheatmap(cor_matrix,cluster_cols = F,display_numbers = T,main = "环境因子相关性分析")

# 计算方差膨胀因子VIF
vifstep(data_na) # usdm包:vifstep()

  多重共线性诊断VIF: 一般文章的材料方法中对VIF的限定不同,有的限定在5以内,有的限定在10以内,也有的限定在20以内,这个根据自己的判断来定,没有十分明确的数值,数值越小越好,一般建议保留在VIF<10的变量。

文章:

  • 1. Analysis of the distribution pattern of Chinese Ziziphus jujuba under climate change based on optimized biomod2 and MaxEnt models. Ecological Indicators:
    在这里插入图片描述

  • 2. Predicting the invasive trend of exotic plants in China based on the ensemble model under climate change: A case for three invasive plants of Asteraceae. Science of The Total Environment:
    在这里插入图片描述

  • 3. Projected degradation of quercus habitats in southern China under future global warming scenarios. Forest Ecol. Manag.:
    在这里插入图片描述

  • 4. Incorporating eco-evolutionary information into species distribution models provides comprehensive predictions of species range shifts under climate change. Science of The Total Environment:在这里插入图片描述
    在这里插入图片描述

Pearson相关性热图:
在这里插入图片描述
  在得到Pearson相关性系数之后,如果我们要去除Pearson>0.80的变量,那么我们应该选择这两个变量中好解释的变量(不要为难自己,给自己挖坑),或者是你认为更加重要的变量(你就是这个领域的专家,你的知识就是最正确的)。

4.Biomod2模型构建(v.3.5.1)

  目前最新的版本应该是v.4.2-1,最新版可能使用起来更加流畅和友好,但是我比较习惯使用v.3.5.1版本构建模型,这个是已经成熟使用过的版本,可能报错少一些,运行更加稳定。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2098645.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

兴业月报|八月法拍房市场套均成交折扣降至6.9折

导读 8月北京法拍房成交房源233套&#xff0c;成交总金额18.2891亿元&#xff0c;套均成交价784.94万元&#xff0c;总参拍人数890人&#xff0c;套均参拍人数3.81人&#xff0c;套均成交折扣6.9折。 ——兴业数据中心 2024年八月北京法拍房市场详细数据报告 2024.03-2024.0…

计算机网络 第1章 概述

文章目录 计算机网络概念计算机网络的组成计算机网络的功能三种数据交换技术电路交换&#xff08;Circuit Switching&#xff09;报文交换&#xff08;message&#xff09;分组交换 三种交换方式性能对比计算机网络的分类计算机网络的性能指标性能指标1&#xff1a;速率性能指标…

【mysql】mysql查询机制 调优不止是索引调优

前言&#xff1a;说到mysql调优 我们第一反应都是想到索引调优 应该这是最基本的 也是至关重要的&#xff1b;一般工作个两年 索引调优都可以掌握的八九不离十&#xff0c;相关数据结构特点也都能说个一二出来&#xff0c;所以本文重点是讲述其它机制 整体架构 连接器&#xff…

【C++】手动实现String类的封装(分文件编译)

实现了String类的大部分封装&#xff0c;采用分文件编译 //mystring.h #ifndef MYSTRING_H #define MYSTRING_H#include <iostream> #include <cstring> using namespace std;class myString { private:char *str; //定义一个字符串int size; //记录字符串…

比亚迪方程豹携手华为乾崑智驾,加速中国智驾技术向前

近日&#xff0c;比亚迪方程豹与华为乾崑智驾在深圳签署合作协议&#xff0c;中国两大科技巨头强强联合&#xff0c;共同合作开发全球首个硬派专属智能驾驶方案&#xff0c;实现整车智驾深度融合&#xff0c;首发搭载在即将上市的方程豹豹8车型。 比亚迪智驾以自主研发和开放合…

MySQL之数据库基础

目录 一、数据库 1、基本概念 2、常见的数据库 3、MySQL数据库 连接MySQL服务器 数据逻辑存储 二、数据库和表的本质 三、SQL语句 四、服务器&#xff0c;数据库&#xff0c;表的关系 五、存储引擎 查看存储引擎 一、数据库 1、基本概念 一般来说&#xff0c;数据库…

【软件技巧】第33课,软件逆向安全工程师之如何快速的跑到某行代码EIP设置,每天5分钟学习逆向吧!

鼠标右键在此设置EIP EIP&#xff08;Extended Instruction Pointer&#xff09;是x86架构中一个重要的寄存器&#xff0c;它用于存储当前正在执行的指令的地址。EIP是程序计数器&#xff08;Program Counter&#xff09;的扩展版本&#xff0c;因为它是32位寄存器&#xff0c…

Centos安装node_exporter

使用以下命令下载最新版本的node_exporter, 地址: https://github.com/prometheus/node_exporter/releasesorter/releases&#xff1a; wget https://github.com/prometheus/node_exporter/releases/download/v1.6.1/node_exporter-1.6.1.linux-amd64.tar.gz或本地下载上传到服…

python 字典怎么提取value

打开编辑器&#xff0c;写上注释内容。 新建一个函数getvalue。 新建一个字典。 zidian{"country1":"america","country2":"australia","country3":"germany"} 利用values这个方法来获取字典中的所有Vlue值&…

浅析synchronized锁升级的原理与实现 1

目录 背景 锁的用法 底层实现 原理分析 锁的状态 锁升级 锁升级过程 锁升级简要步骤 锁升级细化流程 背景 在多线程编程中&#xff0c;线程同步是一个关键的概念&#xff0c;它确保了多个线程对共享资源的安全访问。Java中的synchronized关键字是一种常用的线程同步机制…

数据安全与个人信息保护的辨析

文章目录 前言一、合规1、合规的目标导向原则2、监管平衡的原则二、基础设施1、公共基础设施2、企业基础设施三、数据流通1、数据生产要素是数字化时代生产要素的变革理论2、数据产品的保护源自于数据产品的价值四、产品与服务1、数据安全与网络安全2、数据安全的分类分级与数据…

Qt-信号与槽

1. 认识信号和槽 Qt中&#xff0c;谈到信号&#xff0c;涉及到三个要素. 信号源&#xff1a;由哪个控件发出的信号信号的类型&#xff1a;用户进行不同的操作&#xff0c;就可能出发不同的信号 点击按钮&#xff0c;触发点击信号 在输入框中移动光标&#xff0c;触发移动光标的…

github私有仓库通过action部署hexo到公开仓库

github私有仓库通过action部署hexo到公开仓库 有一段时间一直将博客md文件直接放到公开仓库然后通过工作流action创建一个gh-page分支&#xff0c;来实现部署 但是这样做有一个问题&#xff0c;如果你的源文件&#xff0c;或者配置文件中有涉及变量&#xff0c;或者密钥key&a…

STM32G474之TIM1输出PWM互补信号(无死区时间和BKIN输入)

STM32G474之TIM1输出PWM互补信号&#xff0c;无死区时间&#xff0c;无BKIN输入。定时器1是16向上计数器&#xff0c;16向下计数器&#xff0c;16向上/向下计数器&#xff0c;输入时钟分频值&#xff1a;“1至65536”中的任意整数&#xff1b;捕获输入通道4个&#xff0c;比较输…

【C++ Primer Plus习题】9.4

问题: 解答: main.cpp #include <iostream> #include "sales.h" using namespace std; using namespace SALES;int main() {Sales s1, s2;double de[QUARTERS] { 12.1,32.1,42.1,51.1 };setSales(s1, de, QUARTERS);showSales(s1);cout << endl;setSal…

AI图片扩展工具 | 一名非技术人员依靠AI就能写出来

前言 我本职是一个技术支持&#xff0c;原本和开发搭不到边。但这两年 AI 发展迅猛&#xff0c;让我这样的半吊子也能借助 AI 的力量写网站。 因为这两年压力大&#xff0c;所以琢磨着出海看看能不能挣到钱&#xff0c;所以在学习做网站。 这个站是我的第 5 个作品了。前面 …

盘点大模型中转 API 平台,并比较费用

1. 大模型中转 API 平台集合 1.1 DevAGI DevAGI开放平台 Open AI 价格 1.2 Deepbricks 官网价格 1.3 AiHubMix AiHubMix 官网 使用教程 价格&#xff1a; 1.4 WildCard 开卡订阅 WildCard官网 价格 有3.5% 的充值手续费&#xff0c;API 价格与 Open AI 一样 2. 价…

vue3 element-plus form 表单 循环校验

需求&#xff1a; 表单是循环出来的&#xff0c;3个一组&#xff0c;每组对于前端来说是一样的&#xff0c; 需要校验输入框是否必填是否为小数或者整数 效果&#xff1a; 未输入--显示&#xff1a;请输入 输入不是小数或整数--显示&#xff1a;请输入整数或小数 输入正确…

南京大学软件学院硕士毕业流程

背景介绍 南京大学作为国内顶尖的985高校&#xff0c;拥有丰富的校内资源和雄厚的师资力量。然而&#xff0c;在管理与协调方面仍存在一定的不足。尤其是在硕士生培养过程中&#xff0c;临近毕业阶段的流程中常出现信息不透明和混乱的现象&#xff0c;导致学生在了解所需材料和…

codeforces Round 970 (Div. 3)(A-F)

文章目录 [Codeforces Round 970 (Div. 3)](https://codeforces.com/contest/2008)A-[Sakurakos Exam](https://codeforces.com/contest/2008/problem/A)B-[Square or Not](https://codeforces.com/contest/2008/problem/B)C-[Longest Good Array](https://codeforces.com/cont…