val df = Seq(
(9999,22)
,(8888,22)
).toDF("col2","col1")
df.write.mode(SaveMode.Append).insertInto("tb_demo_2")
// spark并不看你df的列名,而是根据位置顺序传入. 所以9999 被插入到了tb_demo_2的col1中
// partitionBy 是配合 saveAsTable 创建分区表用的. 不能和 insertInto 一起使用.
// 插入分区表不需要partitionby,spark自动根据后面几个字段按位置匹配.
// saveAsTable 总是会删除表(如果是分区表,所有分区被删除),不信你建表的时候comment一下信息.
// 配合 https://blog.csdn.net/penriver/article/details/116201242 理解



