栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

大数据实验五spark

大数据实验五spark

spark

idea加入Scala插件的方法:

在pom.xml加入

    
        
            
                net.alchim31.maven
                scala-maven-plugin
                4.5.4
            
        
    

需要添加的依赖:


        8
        8
        2.11.8
        2.1.1
        2.7.7
    



    
        
            scala-tools.org
            Scala-Tools Maven2 Repository
            https://scala-tools.org/repo-releases
        
    


    
        
            org.scala-lang
            scala-library
            2.11.8
            compile
        
        
            org.scala-lang
            scala-reflect
            2.11.8
            compile
        
        
            org.scala-lang
            scala-compiler
            2.11.8
            compile
        

        
            org.apache.spark
            spark-core_2.11
            ${spark.version}
        
        
            org.apache.spark
            spark-sql_2.11
            ${spark.version}
        
        
            org.apache.spark
            spark-streaming_2.11
            ${spark.version}
        
        
            org.apache.hadoop
            hadoop-client
            ${hadoop.version}
        
        
            org.apache.hadoop
            hadoop-common
            ${hadoop.version}
        
        
            org.apache.hadoop
            hadoop-hdfs
            ${hadoop.version}
        

    

注意:23行line.split(" ")中间是空格

此步骤目的是将list中的元素按照分隔符(这里是空格)拆分,然后展开

此前本人照着pdf指导敲的时候没注意到里面一定要加空格,生成的结果就成了:

拆成了单个字符进行识别了

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/650480.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号