• 关于

    sql timestamp

    的搜索结果

回答

在Java方面,日期通常由(设计欠佳,但不包括在内)表示java.util.Date。它基本上是由支持大纪元时间中的味道long,也称为时间戳。它包含有关日期和时间部分的信息。在Java中,精度以毫秒为单位。 在SQL方面,有几个标准的日期和时间类型,DATE,TIME和TIMESTAMP(在一些DB也叫DATETIME),这是代表在JDBC为java.sql.Date,java.sql.Time和java.sql.Timestamp所有子类的java.util.Date。精度取决于数据库,通常像Java一样以毫秒为单位,但是也可以以秒为单位。 与相反java.util.Date,java.sql.Date仅包含有关日期部分(年,月,日)的信息。像一样,Time仅包含有关时间部分(小时,分钟,秒)的Timestamp信息,并且包含有关两个部分的信息java.util.Date。 在数据库(因此,java.util.Date在Java端和java.sql.TimestampJDBC端)中存储时间戳的通常做法是使用PreparedStatement#setTimestamp()。 java.util.Date date = getItSomehow(); Timestamp timestamp = new Timestamp(date.getTime()); preparedStatement = connection.prepareStatement("SELECT * FROM tbl WHERE ts > ?"); preparedStatement.setTimestamp(1, timestamp); 从DB获得时间戳的正常做法是使用ResultSet#getTimestamp()。 Timestamp timestamp = resultSet.getTimestamp("ts"); java.util.Date date = timestamp; // You can just upcast.来源:stack overflow
保持可爱mmm 2020-05-11 12:00:17 0 浏览量 回答数 0

回答

使用.explain运算符,它将逻辑和(启用扩展标志)物理计划打印到控制台。 val records = spark. readStream. format("rate"). load scala> records.explain == Physical Plan ==StreamingRelation rate, [timestamp#0, value#1L] scala> records.explain(extended = true) == Parsed Logical Plan ==StreamingRelation DataSource(org.apache.spark.sql.SparkSession@4071aa13,rate,List(),None,List(),None,Map(),None), rate, [timestamp#0, value#1L] == Analyzed Logical Plan ==timestamp: timestamp, value: bigintStreamingRelation DataSource(org.apache.spark.sql.SparkSession@4071aa13,rate,List(),None,List(),None,Map(),None), rate, [timestamp#0, value#1L] == Optimized Logical Plan ==StreamingRelation DataSource(org.apache.spark.sql.SparkSession@4071aa13,rate,List(),None,List(),None,Map(),None), rate, [timestamp#0, value#1L] == Physical Plan ==StreamingRelation rate, [timestamp#0, value#1L]物理计划是DAG的转换,因此它可以帮助您。 这个链接可能会有所帮助: https://jaceklaskowski.gitbooks.io/spark-structured-streaming/spark-sql-streaming-Dataset-explain.html
社区小助手 2019-12-02 01:46:16 0 浏览量 回答数 0

回答

您需要将列转换为时间戳,然后执行diff计算。看一下这个: scala> val df = Seq(("1/01/2017 12:01:00 AM","1/1/2017 12:05:00 AM")).toDF("time1","time2")df: org.apache.spark.sql.DataFrame = [time1: string, time2: string] scala> val df2 = df.withColumn("time1",to_timestamp('time1,"d/MM/yyyy hh:mm:ss a")).withColumn("time2",to_timestamp('time2,"d/MM/yyyy hh:mm:ss a"))df2: org.apache.spark.sql.DataFrame = [time1: timestamp, time2: timestamp] scala> df2.printSchemaroot |-- time1: timestamp (nullable = true) |-- time2: timestamp (nullable = true) scala> df2.withColumn("diff_sec",unix_timestamp('time2)-unix_timestamp('time1)).withColumn("diff_min",'diff_sec/60).show(false) time1 time2 diff_sec diff_min 2017-01-01 00:01:00 2017-01-01 00:05:00 240 4.0 scala>UPDATE1: scala> val df = Seq(("1/01/2017 12:01:00 AM"),("1/1/2017 12:05:00 AM")).toDF("timex")df: org.apache.spark.sql.DataFrame = [timex: string] scala> val df2 = df.withColumn("timex",to_timestamp('timex,"d/MM/yyyy hh:mm:ss a"))df2: org.apache.spark.sql.DataFrame = [timex: timestamp] scala> df2.show timex 2017-01-01 00:01:00 2017-01-01 00:05:00 scala> val df3 = df2.alias("t1").join(df2.alias("t2"), $"t1.timex" =!= $"t2.timex", "leftOuter").toDF("time1","time2")df3: org.apache.spark.sql.DataFrame = [time1: timestamp, time2: timestamp] scala> df3.withColumn("diff_sec",unix_timestamp('time2)-unix_timestamp('time1)).withColumn("diff_min",'diff_sec/60).show(false) time1 time2 diff_sec diff_min 2017-01-01 00:01:00 2017-01-01 00:05:00 240 4.0 2017-01-01 00:05:00 2017-01-01 00:01:00 -240 -4.0 scala> df3.withColumn("diff_sec",unix_timestamp('time2)-unix_timestamp('time1)).withColumn("diff_min",'diff_sec/60).show(1,false) time1 time2 diff_sec diff_min 2017-01-01 00:01:00 2017-01-01 00:05:00 240 4.0 only showing top 1 row scala>
社区小助手 2019-12-02 01:46:17 0 浏览量 回答数 0

问题

FLINK SQL 1.10 如何直接将bigint类型时间数据转换为Timestamp类型数据而不

我是Flink新手,正在学习flink sql相关开发,参考的阿里云开发文档进行学习 https://www.alibabacloud.com/help/zh/faq-detail/64813.htm?spm&#...
刘刚_ 2020-05-20 17:56:43 4 浏览量 回答数 1

回答

先把String转成Date再转Timestamp,使用joda可以让转换更简单。 import org.joda.time.DateTime; import java.sql.Timestamp; public class Q1010000002719435 { public static void main(String[] args) { String timeStampString = "2014-11-11"; DateTime dateTime = DateTime.parse(timeStampString); Timestamp timestamp = new Timestamp(dateTime.getMillis()); System.out.println(timestamp); } }
蛮大人123 2019-12-02 01:53:55 0 浏览量 回答数 0

问题

怎么写SQL语句,将一张表的一列的值设置为另一列的值

我是个SQL新手,想请教个简单的问题,比如我有一张简单的表,结构如下CREATE TABLE business_web_archtype (id varchar(36) NOT NULL DEFAULT '' COMMENT '主键,栏目i...
a123456678 2019-12-01 20:15:15 1296 浏览量 回答数 1

问题

jpa 怎么样方便 定义LastUpdateTime 和 CreateTime 字段。

在一个JPA Entity中定义了java.util.Date类型的LastUpdateTime 和 CreateTime 两个字段实例。 现在想要的需求是在执行 EntityManager 的 persist 方法(即执行SQL 的Ins...
爵霸 2019-12-01 20:06:04 2614 浏览量 回答数 1

问题

Flink SQL中的DATE_FORMAT()函数中,如何将bigint转换为timestamp类型?

Flink SQL中的DATE_FORMAT()函数中,如何将bigint转换为timestamp类型?用cast转换失败,有大佬遇见这种问题么?...
flink小助手 2019-12-01 19:30:05 1358 浏览量 回答数 1

问题

【Java开发手册】不允许在程序任何地方中使用:1)java.sql.Date 2)java.sq

不允许用 java.sql.Timestamp,那数据库的timestamp类型应该对应哪种类型呢?...
naruduo 2020-05-01 10:45:18 8 浏览量 回答数 2

回答

DEFAULT_CURDATE###### 引用来自#2楼“pjx”的帖子 DEFAULT_CURDATE  试了,还是不行######CREATE TABLE Orders ( OrderId int NOT NULL, ProductName varchar(50) NOT NULL, OrderDate timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP(), PRIMARY KEY (OrderId) )###### 引用来自#4楼“红薯”的帖子 CREATE TABLE Orders ( OrderId int NOT NULL, ProductName varchar(50) NOT NULL, OrderDate timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP(), PRIMARY KEY (OrderId) ) 我在news表里加一个字段存时间时出错 还是出错了 错误 SQL 查询:  ALTER TABLE news ADD date DATE NOT NULL DEFAULT CURRENT_TIMESTAMP  MySQL 返回:   #1067 - Invalid default value for 'date'######ALTER TABLE news ADD date DATE NOT NULL DEFAULT CURRENT_TIMESTAMP date 列不能用 CURRENT_TIMESTAMP 默认的 ,要用 CURRENT_DATE timestamp 才能用 CURRENT_TIMESTAMP 作默认###### 引用来自#6楼“fly020212”的帖子 ALTER TABLE `news` ADD `date` DATE NOT NULL DEFAULT CURRENT_TIMESTAMP date 列不能用 CURRENT_TIMESTAMP 默认的 ,要用 CURRENT_DATE timestamp 才能用 CURRENT_TIMESTAMP 作默认 多谢了,DATE列用CURRENT_DATE还是不行, 但TIMESTAMP用CURRENT_TIMESTAP可以了。
kun坤 2020-05-29 17:48:12 0 浏览量 回答数 0

问题

Postgresql timestamp 插入失败问题!?报错

@JFinal 你好,想跟你请教个问题: Postgresql 在插入timestamp字段的时候,总是报错:org.postgresql.util.PSQLExcept...
爱吃鱼的程序员 2020-06-14 17:10:51 0 浏览量 回答数 1

问题

flink timestamp转换为date类型,有什么函数吗,flink sql

flink timestamp转换为date类型,有什么函数吗,flink sql 这里](https://developer.aliyun.com/article/713951)欢迎加入感兴趣的技术领域群。...
黄一刀 2019-12-01 22:05:12 40 浏览量 回答数 1

问题

SQL查询某一天内的记录

我的表里有一个finish_time的字段,类型为timestamp,现在我要查询某一天内的所有记录,请问SQL语句应该怎么写。以前时间戳类型我都是用的int类型,这次变了timestamp不会弄了,望大神帮忙~...
a123456678 2019-12-01 20:16:32 1140 浏览量 回答数 2

回答

您可以重写insert语句,以仅允许基于您的约束插入选票: Insert Into Votes (Choice, Timestamp, IP, Email) Select Top 1 @Choice, @Timestamp, @IP, @Email From Votes Where (Select Count(*) From Votes Where IP = @IP and Email = @Email and Timestamp > DateAdd(h, -2, GetDate())) < 3 您没有提到您使用的是哪种SQL语言,所以这是在SQL Server 2005中。
保持可爱mmm 2019-12-02 03:16:47 0 浏览量 回答数 0

问题

将字符串格式更改为日期[重复]

我需要将字符串更改为日期格式'YYYY-MM-DD' 输入数据是2018071620180912像这样的字符串类型,需要输出为2018-07-162018-09-12spark.sql("""select TO_DATE(CAST(UNIX...
社区小助手 2019-12-01 19:23:47 377 浏览量 回答数 1

回答

首先如果你要用多个字段的话,就不要单个单个存字段,或者把一个对象序列化以后再存,这样跟memcache完全没区别。其次,你要弄清一个事实,我们用redis不是来完全代替关系数据库的,像你说的那个按用户名搜索用户完全不用放到redis里,不要为了使用redis而去用redis。用redis你可以做缓存,这样你只需要把主键作为key,你也可以利用它的索引特性来做列表多个字段你可以用hash对象存储HMSET user:1234 name "hello" password "123456" timestamp "12321321"把主键存到一个SET或者SORTED SET里SADD user_list 1234值得注意的是redis的SORT命令可以代替SQL解决很多查询,比如像上面这种哈希存储方式,如果我们要按timestamp排序并在一定范围内列出user来SORT user_list BY user:*->timestamp GET # LIMIT 0 10 DESC它等同于SQL语句SELECT * FROM user ORDER BY timestamp DESC LIMIT 0 10
落地花开啦 2019-12-02 01:53:58 0 浏览量 回答数 0

问题

sql多表联合查询

现在有3个表 A、B、C A表字段有:user_id,timestamp ... B表字段有:user_id,timestamp ... C表字段有:user_id&#x...
长安归故里. 2020-01-31 13:56:09 0 浏览量 回答数 1

回答

首先如果你要用多个字段的话,就不要单个单个存字段,或者把一个对象序列化以后再存,这样跟memcache完全没区别。其次,你要弄清一个事实,我们用redis不是来完全代替关系数据库的,像你说的那个按用户名搜索用户完全不用放到redis里,不要为了使用redis而去用redis。用redis你可以做缓存,这样你只需要把主键作为key,你也可以利用它的索引特性来做列表多个字段你可以用hash对象存储`HMSET user:1234 name "hello" password "123456" timestamp "12321321"`把主键存到一个SET或者SORTED SET里`SADD user_list 1234`值得注意的是redis的SORT命令可以代替SQL解决很多查询,比如像上面这种哈希存储方式,如果我们要按timestamp排序并在一定范围内列出user来SORT user_list BY user:*->timestamp GET # LIMIT 0 10 DESC它等同于SQL语句SELECT * FROM user ORDER BY timestamp DESC LIMIT 0 10
爵霸 2019-12-02 02:01:39 0 浏览量 回答数 0

回答

首先 DATETIM和TIMESTAMP类型所占的存储空间不同,前者8个字节,后者4个字节,这样造成的后果是两者能表示的时间范围不同。前者范围为1000-01-01 00:00:00 ~ 9999-12-31 23:59:59,后者范围为1970-01-01 08:00:01到2038-01-19 11:14:07。所以可以看到TIMESTAMP支持的范围比DATATIME要小,容易出现超出的情况.其次,TIMESTAMP类型在默认情况下,insert、update 数据时,TIMESTAMP列会自动以当前时间(CURRENT_TIMESTAMP)填充/更新。第三,TIMESTAMP比较受时区timezone的影响以及MYSQL版本和服务器的SQL MODE的影响所以一般来说,我比较倾向选择DATETIME,至于你说到索引的问题,选择DATETIME作为索引,如果碰到大量数据查询慢的情况,也可以分区表解决。
西秦说云 2019-12-02 01:33:21 0 浏览量 回答数 0

问题

Hibernate 自动生成日期值

&lt;class name="com.traitswu.zone.entity.User" table="user"&gt; &lt;id name="id" type="int" column="id"&gt; ...
云栖技术 2019-12-01 19:40:28 1259 浏览量 回答数 1

问题

如何将一个spark行(StructType)强制转换为scala案例类

我试图在scala中编写一个udf函数,并在我的pyspark工作中使用它。我的数据帧架构是root|-- vehicle_id: string|-- driver_id: string|-- StartDtLocal: timestamp...
社区小助手 2019-12-01 19:29:08 1073 浏览量 回答数 1

回答

1)java.sql.Date。 2)java.sql.Time。3)java.sql.Timestamp。
不语奈何 2021-03-02 16:20:29 0 浏览量 回答数 0

问题

求写一个比较复杂的SQL:报错

  这是12月的日历。(前三天和后几天并不属于本月)求一个sql,查询出当月的事件。 事件开始时间start(timestamp),事件结束时间end(timestamp)࿰...
kun坤 2020-06-09 13:49:53 0 浏览量 回答数 1

回答

假设您想要用户的每个可能的位置组合,您只需要在USER_ID上进行连接,然后减去日期列。这里的一个技巧是使用unix_timestamp将日期时间数据解析为支持减法操作的整数。 示例代码: from pyspark.sql.functions import unix_timestamp, col, datediff data = [ (1, 1001, '19:11:39 5-2-2010'), (1, 6022, '17:51:19 6-6-2010'), (1, 1041, '11:11:39 5-2-2010'), (2, 9483, '10:51:23 3-2-2012'), (2, 4532, '11:11:11 4-5-2012'), (3, 4374, '03:21:23 6-9-2013'), (3, 4334, '04:53:13 4-5-2013') ] df = spark.createDataFrame(data, ['USER_ID', 'location', 'timestamp'])df = df.withColumn('timestamp', unix_timestamp('timestamp', 'HH:mm:ss dd-MM-yyyy')) Renaming columns to avoid conflicts after join df2 = df.selectExpr('USER_ID as USER_ID2', 'location as location2', 'timestamp as timestamp2')cartesian = df.join(df2, col("USER_ID") == col("USER_ID2"), "inner") Filter to get rid of reversed duplicates, and rows where location is same on both sides pairs = cartesian.filter("location < location2") \ .drop("USER_ID2") \ .withColumn("diff", col("timestamp2") - col("timestamp")) pairs.show()
社区小助手 2019-12-02 01:47:52 0 浏览量 回答数 0

问题

SQL按时间周期分组,取分组数据

最近需要写一个sql分组查询(使用的数据库是mysql),时间周期是可变的,比如需要统计一个小时内每5分钟,或者10分钟的数据,或者一个月之内每几天,每十天的数据,目前我的sql是这样的select max(value),min(value...
小旋风柴进 2019-12-01 20:14:49 1065 浏览量 回答数 1

问题

求教flink自定义python udf时TIMESTAMP类型问题

版本:pyflink1.10 pyflink使用python udf的时候数据类型定义为DataTypes.TIMESTAMP(),但是执行时被解释为long型,报not match 源码ÿ...
1953414269614977 2020-05-15 14:40:16 21 浏览量 回答数 0

问题

为什么我的SQL Month查询不返回任何结果?

我对SQL不太满意,所以我以为会来这里。我显然已经做过研究,但是我在努力寻找我做错了什么! 所以,这是我的查询: SELECT HOUSE, AMOUNT FROM ...
montos 2020-03-25 21:44:26 1 浏览量 回答数 1

回答

下面的sql语句,你试一下`select * from [table] where (UNIX_TIMESTAMP(HISTORY_DATETIME) < UNIX_TIMESTAMP('2013-06-26')+24*3600-1); `
落地花开啦 2019-12-02 01:47:15 0 浏览量 回答数 0

问题

关于sphinx大数据?报错

@张小农 你好,想跟你请教个问题: 最近在学习sphinx,遇到了一些问题,刚看到你发的文章《sphinx+mysql+php 秒杀大数据》http://my...
爱吃鱼的程序员 2020-06-10 10:05:03 0 浏览量 回答数 1

回答

要使用结构,您应该使用嵌套Rows(namedtuples通常是首选,但需要有效的名称标识符): from pyspark.sql import Row Outer = Row("some-column")Inner = Row("timestamp", "strVal") spark.createDataFrame([ Outer([Inner(1353534535353, 'some-string')]), Outer([Inner(1353534535354, 'another-string')]) ]).printSchema()root |-- some-column: array (nullable = true) | |-- element: struct (containsNull = true) | | |-- timestamp: long (nullable = true) | | |-- strVal: string (nullable = true)根据您目前的结构,可以使用中间JSON实现方案结果: import json spark.read.json(sc.parallelize(some_data).map(json.dumps)).printSchema()root |-- some-column: array (nullable = true) | |-- element: struct (containsNull = true) | | |-- strVal: string (nullable = true) | | |-- timestamp: long (nullable = true)或显式模式: from pyspark.sql.types import * schema = StructType([StructField( "some-column", ArrayType(StructType([ StructField("timestamp", LongType()), StructField("strVal", StringType())]) ))]) spark.createDataFrame(some_data, schema)虽然最后一种方法可能不完美。
社区小助手 2019-12-02 01:47:51 0 浏览量 回答数 0

云产品推荐

上海奇点人才服务相关的云产品 小程序定制 上海微企信息技术相关的云产品 国内短信套餐包 ECS云服务器安全配置相关的云产品 开发者问答 阿里云建站 自然场景识别相关的云产品 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务 阿里云AIoT