1、str、repr 和 反引号是将Python值转换为字符串的3种方法。函数 str 让字符串更易于阅读,而 repr(和反引号)则把结果字符串转换为合法的Python表达式。
>>> print repr(1000L) 1000L >>> print str(1000L) 1000
2、原始字符串以 r 开头,不会把反斜线当作特殊字符,最后一个字符不能是反斜线
>>> str2 = 'C:nowhere' >>> str2 'C:nowhere' >>> print str2 C: owhere >>> str1 = r'C:nowhere' >>> str1 'C:\nowhere' >>> print str1 C:nowhere
3、序列字面量可以直接使用索引。如 ‘Hello’[3]
4、分片操作可以提取序列的一部分,通过冒号相隔的两个索引实现,作为边界,第二个索引是不包含在分片内的。
5、两种相同类型的序列才能进行连接操作。
6、None是Python的一个内建值,表示这里什么都没有
7、in 可以检查一个值是否在序列中。可以检查更长的子字符串。
>>> 'Py' in 'Python' True
8、join 将一个由字符组成的列表转换为字符串
>>> list4 = ['a','fg','ab'] >>> list5=''.join(list4) >>> list5 'afgab' >>> list4 = ['a','fg','ab'] >>> list5=','.join(list4) >>> list5 'a,fg,ab'
9、刷新元数据如果报错 ERROR: CatalogException: Error loading metadata for partition 是因为hive的元数据库限制了。比如说有可能hive元数据服务繁忙,你impala要等待 。
10、遇到重启 flink 任务,failed,并且影响到了其他同一集群较重的任务。看日志说是tm挂掉了,后面集群会自动启动其他的tm。看资源是由于所用集群的并行度拥挤(slot使用,如19/24),而该任务比较重。
11、flink source 为 kafka 时,设置成 group offset 消费时,若 记录的offset 是保存时期外的定位,那么会从最新的开始消费,即 lateset offset。



