Spark如何处理中文字符串

最近工作中需要用spark对中文的字符提取,由于环境一直是英文的,发现打印出来是乱码。后经研究,需要做一个UTF-8的转换
大概如下:

val data_file = sc.textFile(“test.txt”)
val item1 = data_file.map(p => new String(p.getBytes, 0, p.getLength, "UTF-8")).map{
    item => XXX
    }

本文名称:Spark如何处理中文字符串
网址分享:http://www.hxwzsj.com/article/ghghgc.html

其他资讯

Copyright © 2025 青羊区翔捷宏鑫字牌设计制作工作室(个体工商户) All Rights Reserved 蜀ICP备2025123194号-14
友情链接: 网站建设开发 重庆手机网站建设 营销型网站建设 企业网站设计 手机网站建设 成都网站建设公司 阿坝网站设计 高端网站设计推广 网站建设 外贸网站建设 成都网站设计 温江网站设计 成都网站制作 成都网站制作 成都网站制作 重庆网站建设 四川成都网站设计 手机网站制作 网站制作 营销型网站建设 成都网站建设 成都网站建设