请问在机器学习PAI加载批数据集csv文件时,支持加载的最大列数是多少呢?我加载88列的csv文件时报错 Exception in thread "main" org.apache.flink.table.api.ExpressionParserException: Could not parse expression at column 1011: string matching regex \p{javaJavaIdentifierStart}\p{javaJavaIdentifierPart}*' expected but
1' found
对于第一个问题,从错误提示上看并不是由于列数过多导致的,而是解析表达式时遇到了正则表达式匹配失败的情况,具体原因可能是某一行中的第 1011 列不符合预期格式,建议检查一下数据源是否有异常的数据或者字符。
第二个问题,一般来说,Flink 和 Flink PAI 对于 CSV 文件格式的要求都是:第一行为表头,其余每行为一条记录;表头由逗号分隔的一系列字符串构成,这些字符串代表每一列的名字;记录则由逗号分隔的一系列字符串构成,每条记录的数量应该与表头一致;表头和记录中都允许出现空格和特殊符号,但不允许出现换行符和制表符。
如果没有数字开头的列,且包含特殊符号,例如 @ 符号,那么可以正常创建表并加载数据,但需要注意的是,在 SQL 查询时需要转义特殊字符,例如:
CREATE TABLE my_table (
`@column` STRING,
...
)
然后使用反引号 ` 将特殊符号包裹起来即可正确引用
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。