成熟的遥控器 · 实时错误‘453’_实时错误453-CSDN博客· 3 月前 · |
奔跑的大脸猫 · Docker的Tomcat启动报错HTTP状 ...· 6 月前 · |
心软的针织衫 · SQL datagrip-阿里云· 6 月前 · |
正直的桔子 · mongodb聚合查询 tostring-掘金· 1 年前 · |
果断的小虾米 · 人工智能下的音频还能这样玩—librosa ...· 1 年前 · |
字符串函数 html代码 str函数 网页代码 |
https://www.math.pku.edu.cn/teachers/lidf/docs/Rbook/html/_Rbook/textapp.html |
风度翩翩的黑框眼镜
1 年前 |
evalCpp()
转换单一计算表达式
cppFunction()
转换简单的C++函数—Fibnacci例子
sourceCpp()
转换C++程序—正负交替迭代例子
sourceCpp()
转换C++源文件中的程序—正负交替迭代例子
sourceCpp()
转换C++源程序文件—卷积例子
wrap()
把C++变量返回到R中
as()
函数把R变量转换为C++类型
as()
和
wrap()
的隐含调用
//[[Rcpp::export]]
sourceCpp()
函数中直接包含C++源程序字符串
cppFunction()
函数中直接包含C++函数源程序字符串
evalCpp()
函数中直接包含C++源程序表达式字符串
depends
指定要链接的库
invisible
要求函数结果不自动显示
clone
函数
is_na
seq_along
seq_len
pmin
和
pmax
ifelse
sapply
和
lapply
sign
diff
kable()
函数制作表格
函数
stringr::str_trim()
和
base::trimws()
可以除去字符串开头与结尾的空格,
也可以仅除去开头或仅除去结尾的空格。
这个任务如果用正则表达式字符串替换函数来编写,可以写成:
### 把字符串向量x的元素去除首尾的空白。 strip <- function(x){ x <- str_replace_all(x, "^[[:space:]]+", "") x <- str_replace_all(x, "[[:space:]]+$", "")
### 把字符串向量x的元素去除首尾的空白。 strip <- function(x){ x <- gsub("^[[:space:]]+", "", x, perl=TRUE) x <- gsub("[[:space:]]+$", "", x, perl=TRUE)
这个版本可以除去包括空格在内的所有首尾空白字符。
50.1.1.2 除去字符串向量每个元素中所有空格
compress <- function(x){ str_replace_all(x, " ", "")
compress <- function(x){ gsub(" ", "", x, fixed=TRUE)
这可以解决
"李明"
与"李 明"
不相等这样的问题。 类似的程序也可以用来把中文的标点替换成英文的标点。50.1.1.3 判断日期是否合法
设日期必须为
yyyy-mm-dd
格式, 年的数字可以是两位、三位、四位,is_yyyymmdd <- function(x){ pyear <- "([0-9]{2}|[1-9][0-9]{2}|[1-2][0-9]{3})" pmon <- "([1-9]|0[1-9]|1[0-2])" pday <- "([1-9]|0[1-9]|1[0-9]|2[0-9]|3[01])" pat <- paste0("\\A", pyear, "-", pmon, "-", pday, "\\Z") str_detect(x, pat)
is.yyyymmdd <- function(x){ pyear <- "([0-9]{2}|[1-9][0-9]{2}|[1-2][0-9]{3})" pmon <- "([1-9]|0[1-9]|1[0-2])" pday <- "([1-9]|0[1-9]|1[0-9]|2[0-9]|3[01])" pat <- paste("\\A", pyear, "-", pmon, "-", pday, "\\Z", sep="") grepl(pat, x, perl=TRUE)
这样的规则还没有排除诸如9月31号、2月30号这样的错误。
x <- c("49-10-1", "1949-10-01", "532-3-15", "2015-6-1", "2017-02-30", "2017-13-11", "2017-1-32") is_yyyymmdd(x)
## [1] TRUE TRUE TRUE TRUE TRUE FALSE FALSE
注意错误的2月30号没有识别出来。
50.1.1.4 把字符型日期变成yyyy-mm-dd格式。
make_date <- function(x){ str_trim() |> str_replace_all("[[:space:]]+", "-") |> str_replace_all("/", "-") |> str_replace_all("[.]", "-") |> str_replace_all( "^([0-9]{2})(-[0-9]{1,2}-[0-9]{1,2})$", "20\\1\\2") |> str_replace_all( "^([0-9]{4})-([0-9])-([0-9]{1,2})$", "\\1-0\\2-\\3") |> str_replace_all( "^([0-9]{4}-[0-9]{2})-([0-9])$", "\\1-0\\2")
make.date <- function(x){ x <- trimws(x) x <- gsub("[[:space:]]+", "-", x) x <- gsub("/", "-", x) x <- gsub("[.]", "-", x) x <- gsub("^([0-9]{2})(-[0-9]{1,2}-[0-9]{1,2})$", "20\\1\\2", x) x <- gsub("^([0-9]{4})-([0-9])-([0-9]{1,2})$", "\\1-0\\2-\\3", x) x <- gsub("^([0-9]{4}-[0-9]{2})-([0-9])$", "\\1-0\\2", x)
另一办法是用
strsplit()
拆分出三个部分, 转换为整数, 再转换回字符型。x <- c("49/10/1", "1949.10.01", "532 3 15", "2015/6.1", "20170230", "2017.13/11", "2017 1 32") make_date(x)
## [1] "2049-10-01" "1949-10-01" "532-3-15" "2015-06-01" "20170230" ## [6] "2017-13-11" "2017-01-32"
目前的函数还不能处理没有分隔符的情况, 也不能验证日期的合法性。
50.1.1.5 合并段落为一行
在某些纯文本格式中, 各段之间用空行分隔, 没有用空行分隔的各行看成同一段。 如下的函数把其中的不表示分段的换行删去从而合并这些段落。 函数以一个文件名作为输入, 合并段落后存回原文件。 这样修改文件的函数在调试时, 应该注意先备份文件, 等程序没有任何错误以后才可以忽略备份。
combine_paragraph <- function(fname, encoding="UTF-8"){ lines <- readr::read_lines( fname, locale=locale(encoding=encoding)) s <- str_flatten(lines, collapse="\n") s <- s |> # 含有空格的空行去掉空格 str_replace_all("^[[:space:]]+\n", "\n") |> # 有内容行的换行替换成空格 str_replace_all("([^\n]+)\n", "\\1 ") |> # 段落换行增加一个空行 str_replace_all("([^\n]+)\n", "\\1\n\n") |> # 多个空行换成一个空行 str_replace_all("\n{3,}", "\n\n") write_lines(str_split(s, "\n")[[1]], file=fname)
下面的版本不使用stringr和readr包:
combine.paragraph <- function( fname, encoding="UTF-8"){ lines <- readLines(fname, encoding = encoding) s <- paste(lines, collapse="\n") |> gsub("^[[:space:]]+\n", "\n", x = _, perl=TRUE) |> gsub("([^\n]+)\n", "\\1 ", x = _, perl=TRUE) |> gsub("([^\n]+)\n", "\\1\n\n", x = _, perl=TRUE) |> gsub("\n{3,}", "\n\n", x = _, perl=TRUE) lines <- strsplit(s, "\n", fixed=TRUE)[[1]] writeLines(lines, con=fname)
50.1.2 不规则Excel文件处理
作为字符型数据处理示例, 考察如下的一个Excel表格数据。 假设一个中学把所有课外小组的信息汇总到了Excel表的一个工作簿中。 每个课外小组占一块区域,各小组上下排列, 但不能作为一个数据框读取。 下图为这样的文件的一个简化样例:
实际数据可能有很多个小组, 而且数据是随时更新的, 所以复制粘贴另存的方法不太可行, 需要用一个通用的程序处理。 Excel文件(.xls后缀或.xlsx后缀)不是文本型数据。 在Excel中,用“另存为”把文件保存为CSV格式, 内容如下:
XXX中学兴趣组情况总表,,, 组名:,物理,指导教师:,刘一心 姓名,性别,班级, 伊家宝,男,初二(3), 闻月,女,初二(5), 刘阳,男,初三(1), 宋佰霖,男,初三(2), 洪晓梅,女,初三(1), 组名:,生物,指导教师:,赵晓辉 姓名,性别,班级, 刘佳琦,女,初二(1), 李雨婷,女,初二(5), 张宠,男,初三(4),
生成测试用的数据文件:
demo.multitab.data <- function(){ s <- " XXX中学兴趣组情况总表,,, 组名:,物理,指导教师:,刘一心 姓名,性别,班级, 伊家宝,男,初二(3), 闻月,女,初二(5), 刘阳,男,初三(1), 宋佰霖,男,初三(2), 洪晓梅,女,初三(1), 组名:,生物,指导教师:,赵晓辉 姓名,性别,班级, 刘佳琦,女,初二(1), 李雨婷,女,初二(5), 张宠,男,初三(4), writeLines(s, "data/multitab.csv") demo.multitab.data()
读入测试用的数据,转换为一整个数据框:
## 删去所有空行和只有逗号的行 ## (1) 不用正则表达式做法 #empty <- which(lines == "" | substring(lines, 1, 3)==",,,") ## (2) 用正则表达式做法: empty <- grep("^[[:space:],]*$", lines) if(length(empty)>0){ lines <- lines[-empty] ## 找到所有包含 “组名:”的行对应的行号 heads <- grep("组名:", lines, fixed=TRUE) ## 定位每个表的开始行和结束行(不包括组名和表头所在的行) start <- heads + 2 end <- c(heads[-1]-1, length(lines)) ngroups <- length(heads) for(ii in seq(ngroups)){ ## 组名和指导教师所在行: line <- lines[heads[ii]] v <- strsplit(line, ",")[[1]] ## 组名:v[2] 指导教师: v[4] ## 将表格内容各行合并成一个用换行符分隔的长字符串, ## 然后变成可读取的文件 s <- paste(lines[start[ii]:end[ii]], collapse="\n") con <- textConnection(s, "rt") da1 <- read.csv( con, header=FALSE, colClasses=c("character", "character", "character", "NULL")) close(con) names(da1) <- c("姓名", "性别", "班级") da1 <- cbind("组名"=v[2], "指导教师"=v[4], da1) if(ii==1) { da <- da1 } else { da <- rbind(da, da1) da <- demo.multitab()demo_multitab <- function(){ ## 读入所有行 lines <- readr::read_lines("data/multitab.csv") ## 去掉首尾空格 lines <- str_trim(lines) ## 删去所有空行和只有逗号的行 empty <- str_detect(lines, "^[[:space:],]*$") if(length(empty)>0){ lines <- lines[!empty] ## 找到所有包含 “组名:”的行对应的行号 heads <- str_which(lines, "组名:") ## 定位每个表的开始行和结束行(不包括组名和表头所在的行) start <- heads + 2 end <- c(heads[-1]-1, length(lines)) ngroups <- length(heads) for(ii in seq(ngroups)){ ## 组名和指导教师所在行: line <- lines[heads[ii]] v <- str_split(line, ",")[[1]] ## 组名:v[2] 指导教师: v[4] ## 将表格内容各行合并成一个用换行符分隔的长字符串, ## 然后变成可读取的文件 s <- str_flatten(lines[start[ii]:end[ii]], collapse="\n") da1 <- readr::read_csv( s, col_names = c("姓名", "性别", "班级", "xxx"), col_types = cols( .default=col_character(), xxx = col_skip()) ) da1 <- bind_cols(tibble("组名"=v[2], "指导教师"=v[4]), da1) if(ii==1) { da <- da1 } else { da <- bind_rows(da, da1) da <- demo_multitab() knitr::kable(da)
在程序中, 用
readLines
函数读取文本文件各行到一个字符型向量。 用grep
可以找到每个小组开头的行(有“组名:”的行)。 然后可以找出每个小组学生名单的开始行号和结束行号。 各小组循环处理,读入后每个小组并入结果数据框中。 用strsplit
函数拆分用逗号分开的数据项。 用textConnection
函数可以把一个字符串当作文件读取, 这样read.csv
函数可以从一个字符串读入数据。50.1.3 字频统计
正则表达式中的字符类
[:alpha:]
指的是当前系统中的字母, 所以在中文环境中的中文字也是字母, 但中文标点不算。 下面是《红楼梦》中“秋窗风雨夕”的文本:秋花惨淡秋草黄,耿耿秋灯秋夜长。 已觉秋窗秋不尽,那堪风雨助凄凉! 助秋风雨来何速!惊破秋窗秋梦绿。 抱得秋情不忍眠,自向秋屏移泪烛。 泪烛摇摇爇短檠,牵愁照恨动离情。 谁家秋院无风入?何处秋窗无雨声? 罗衾不奈秋风力,残漏声催秋雨急。 连宵脉脉复飕飕,灯前似伴离人泣。 寒烟小院转萧条,疏竹虚窗时滴沥。 不知风雨几时休,已教泪洒窗纱湿。
希望统计每个字的出现次数, 并显示频数前十的字。 设变量
poem_autumnwindow
中包含了上述诗词的文本。首先用
str_extract_all()
提取每个中文字,组成一个字符型向量:## [1] "秋" "花" "惨" "淡" "秋" "草"
用tidyverse方法:
用
table()
函数计算频数,并按频数排序,输出前10结果:## # A tibble: 10 × 2 ## words n ## <chr> <int> ## 1 秋 15 ## 2 窗 5 ## 3 雨 5 ## 4 风 5 ## 5 不 4 ## 6 泪 3 ## 7 何 2 ## 8 助 2 ## 9 声 2 ## 10 已 2
或者,用
words_vectable()
函数计算频数:50.1.4.5 判断字符型向量每个元素是否数值
如下的R函数用了多种数字的正则表达式来判断字符型向量每个元素是否合法数值。
all_numbers <- function(x){ x <- x |> str_replace_all("\\A[ ]+", "") |> str_replace_all("[ ]+\\Z", "") pint <- "\\A[+-]?[0-9]+\\Z" # 整数, 允许有前导零 ## 浮点数1, 整数部分必须,小数部分可选,指数部分可选 pf1 <- "\\A[+-]?[0-9]+([.][0-9]*)?([Ee][+-]?[0-9]+)?\\Z" ## 浮点数2, 整数部分省略,小数部分必须,指数部分可选 pf2 <- "\\A[+-]?[.][0-9]+([Ee][+-]?[0-9]+)?\\Z" pat <- str_c(pint, pf1, pf2, sep="|") str_detect(x, pat)
不使用stringr的版本:
all.numbers <- function(x){ x <- gsub("\\A[ ]+", "", x, perl=TRUE) x <- gsub("[ ]+\\Z", "", x, perl=TRUE) pint <- "\\A[+-]?[0-9]+\\Z" # 整数, 允许有前导零 ## 浮点数1, 整数部分必须,小数部分可选,指数部分可选 pf1 <- "\\A[+-]?[0-9]+([.][0-9]*)?([Ee][+-]?[0-9]+)?\\Z" ## 浮点数2, 整数部分省略,小数部分必须,指数部分可选 pf2 <- "\\A[+-]?[.][0-9]+([Ee][+-]?[0-9]+)?\\Z" pat <- paste(pint, pf1, pf2, sep="|") grepl(pat, x, perl=TRUE)
all_numbers(c("1", "12", "-12", "12.", "-12.", "123.45", "-123.45", ".45", "-.45", "1E3", "-12E-10", "1.1E3", "-1.1E-3", "1.0.0", "1.0-0.5"))
## [1] TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE ## [13] TRUE FALSE FALSE
50.1.5 文件名中的数字提取
设有如下的一些文件名:
希望提取出每个文件名中用减号分隔开的数字, 如第一个文件名中的10, 0.16, 1700.0, 42, 第二个文件名中的12, 0.22, 1799.1, 数字的个数不需要相同。
先定义数字的模式, 注意长备择模式中长的模式要写在前面, 否则会被短的模式优先匹配:
用
stringr::str_match_all()
提取其中的匹配数字:## [[1]] ## [,1] ## [1,] "10" ## [2,] "0.16" ## [3,] "1700.0" ## [4,] "42" ## [[2]] ## [,1] ## [1,] "12" ## [2,] "0.22" ## [3,] "1799.1"
每个列表元素是一个矩阵, 其中第一列的各行是对模式的多次匹配, 取出这些匹配为一个字符型向量:
s2 <- s |> str_match_all(pat) |> map(function(x) x[,1])
## [[1]] ## [1] "10" "0.16" "1700.0" "42" ## [[2]] ## [1] "12" "0.22" "1799.1"
如果需要,也可以将拆分出的字符型的数字结果转换成数值型:
s3 <- s |> str_match_all(pat) |> map(function(x) x[,1]) |> map(parse_double)
## [[1]] ## [1] 10.00 0.16 1700.00 42.00 ## [[2]] ## [1] 12.00 0.22 1799.10
这个问题也可以用
strsplit()
或者stringr::str_split()
解决。如:s <- c("10-0.16-1700.0-42.csv", "12-0.22-1799.1.csv") s1 <- substring(s, 1, nchar(s)-4) # 去掉".csv" s2 <- strsplit(s1, "[-]") # 按减号分成几个部分,结果为列表 s3 <- lapply(s2, as.numeric) # 转换为数值型 print(s3)
## [[1]] ## [1] 10.00 0.16 1700.00 42.00 ## [[2]] ## [1] 12.00 0.22 1799.10
50.2 网站数据获取
很多网站定期频繁发布数据, 所以传统的手工复制粘贴整理是不现实的。 有些网站提供了下载功能, 有些则仅能显示。
如果网页不是依赖JavaScript来展示的话, 可以读取网页然后通过字符型数据处理方法获得数据。 可以用
download.file()
下载网页文件, 这是特殊的文本文件, 其中有许多标记(tags), 如<html>
,</html>
,<head>
,</head>
,<body>
,</body>
,<p>
,</p>
,<table>
,</table>
,<tr>
,</tr>
,<th>
,</th>
,<td>
,</td>
, 用str_replace_all()
或者gsub()
去掉不需要的成分, 用str_which()
或者grep
查找关键行。许多数据网页有固定模式并且含有数据, R扩展包rvest可以对网页按照其中的网页构成节点路径(xpath)提取数据, 转换为R数据框。
以上海证券交易所的上证综指成份股列表为例。 使用Google Chrome浏览器打开如下的页面:
http://www.sse.com.cn/market/sseindex/indexlist/s/i000001/const_list.shtml
将显示上证综指成份股的名称与编码的列表页面。 利用Chrome浏览器的功能先获取表格所在页面部分的xpath, 办法是鼠标右键单击表格开头部分, 选择“检查”(inspect), 这时会在浏览器右边打开一个html源代码窗口, 当前加亮显示部分是表格开头内容的源代码, 将鼠标单击到上层的
用rvest的<table class="tablestyle">
处, 右键单击选择“Copy-Copy XPath”, 得到如下的xpath地址:'//*[@id="content_ab"]/div[1]/table'
。read_html()
将HTML页面内容下载为R变量, 用html_nodes()
函数提取页面中用xpath指定的成分, 用html_table()
函数将HTML表格转换为数据框, 结果是一个数据框列表, 因为仅有一个, 所以取列表第一项即可。 程序如下:library(rvest) ## 网页地址 urlb <- paste0("http://www.sse.com.cn/", "market/sseindex/indexlist/s/i000001/const_list.shtml") ## 网页中数据表的xpath xpath <- '//*[@id="content_ab"]/div[1]/table' ## 读入网页 html_var <- read_html(urlb) ## 提取读入的页面内容中的表格节点 nodes <- html_nodes(html_var, xpath=xpath) ## 从表格节点转换为表格列表 tables <- html_table(nodes) restab <- tables[[1]] head(restab) ## X1 X2 ## 1 浦发银行\r\n (600000) 白云机场\r\n (600004) ## 2 中国国贸\r\n (600007) 首创股份\r\n (600008) ## X3 ## 1 东风汽车\r\n (600006) ## 2 上海机场\r\n (600009)
可见每一行有三个股票, 我们将数据中的
\r\n
和空格去掉, 然后转换成名称与代码分开的格式:library(tidyverse) pat1 <- "^(.*?)\\((.*?)\\)" tab1 <- restab |> ## 将三列纵向合并为一列,结果为字符型向量 reduce(c) %>% ## 去掉空格和换行符,结果为字符型向量 str_replace_all("[[:space:]]", "") %>% ## 提取公司简称和代码到一个矩阵行,结果为字符型矩阵 str_match(pat1) tab <- tibble( name = tab1[,2], code = tab1[,3]) head(tab) ## # A tibble: 6 x 2 ## name code ## <chr> <chr> ## 1 浦发银行 600000 ## 2 中国国贸 600007 ## 3 包钢股份 600010 ## 4 华夏银行 600015 ## 5 上港集团 600018 ## 6 上海电力 600021
str(tab) ## Classes ‘tbl_df’, ‘tbl’ and 'data.frame': 1551 obs. of 2 variables: ## $ name: chr "浦发银行" "中国国贸" "包钢股份" "华夏银行" ... ## $ code: chr "600000" "600007" "600010" "600015" ...
有些网页是依靠JavaScript来显示数据的, 比如新浪财经的环球股指汇总网页:
http://finance.sina.com.cn/money/globalindex/
在查看其页面源代码时, 仅能看到一堆JavaScrip代码而看不到实际数据, 这样的网页很难用程序提取数据。
关于rvest从html中提取数据的许多函数, 可参见https://r4ds.hadley.nz/webscraping.html。
50.3 中文分词与词云
为了对中文文章进行分析, 需要将文章内容拆分为一个个单词。 R扩展包jiebaR可以进行中文分词。 用
w <- worker()
创建一个分词器, 用segment(txt, w)
对字符串txt中的中文内容进行分词, 得到字符型向量,每个元素是一个词。也可以调用
R可以很容易地进行词频统计, 如segment(fname, w)
, 其中fname
是输入文本文件名, 可以自动侦测其中的中文编码, 分词结果会自动保存为文件开头和文件扩展名与fname
相同的一个文件, 词之间以空格分隔。table()
函数。 对金庸的《侠客行》分词:## Loading required package: jiebaRD
words 所以需要进行设置。 可以在Rmd源文件开头运行命令:wk <- worker() txt <- readr::read_file("xkx.txt", locale=locale(encoding="GB18030")) words <- segment(txt, wk) tab <- table(words) tab <- sort(tab, decreasing = TRUE) ## 去掉单个字的词语 tab2 <- tab[stringr::str_length(names(tab)) > 1] knitr::kable(as.data.frame(head(tab2, 20)))
这可以定义一个变量
is_html
, 仅在输出格式为HTML时才为TRUE
, 然后在包含特殊HTML显示的代码段选项中, 加选项eval = is_html
。ggwordcloud包也提供了词云作图功能, 没有提供交互功能。
成熟的遥控器 · 实时错误‘453’_实时错误453-CSDN博客 3 月前 |
心软的针织衫 · SQL datagrip-阿里云 6 月前 |
正直的桔子 · mongodb聚合查询 tostring-掘金 1 年前 |
果断的小虾米 · 人工智能下的音频还能这样玩—librosa - 掘金 1 年前 |