就是版本没统一
spark和pyspark的版本需要统一
我的spark是3.0.3的
然后使用的是anaconda内的python,安装pyspark的时候没指定版本,默认安装最新的3.2
导致我在使用jupyter的时候报错
pip uninstall pyspark pip install pyspark==3.0.3
然后重启jupyter即可

就是版本没统一
spark和pyspark的版本需要统一
我的spark是3.0.3的
然后使用的是anaconda内的python,安装pyspark的时候没指定版本,默认安装最新的3.2
导致我在使用jupyter的时候报错
pip uninstall pyspark pip install pyspark==3.0.3
然后重启jupyter即可