我有数据
i,ID,url,used_at,active_seconds,domain,search_term
322015,0120bc30e78ba5582617a9f3d6dfd8ca,vk.com/antoninaribina,2015-12-31 09:16:05,35,vk.com,None
838267,0120bc30e78ba5582617a9f3d6dfd8ca,vk.com/feed,2015-12-31 09:16:38,54,vk.com,None
838271,0120bc30e78ba5582617a9f3d6dfd8ca,vk.com/feed?section=photos,2015-12-31 09:17:32,34,vk.com,None
322026,0120bc30e78ba5582617a9f3d6dfd8ca,vk.com/feed?section=photos&z=photo143297356_397216312%2Ffeed1_143297356_1451504298,2015-12-31 09:18:06,4,vk.com,None
838275,0120bc30e78ba5582617a9f3d6dfd8ca,vk.com/feed?section=photos,2015-12-31 09:18:10,4,vk.com,None
322028,0120bc30e78ba5582617a9f3d6dfd8ca,vk.com/feed?section=comments,2015-12-31 09:18:14,8,vk.com,None
322029,0120bc30e78ba5582617a9f3d6dfd8ca,megarand.ru/contest/121070,2015-12-31 09:18:22,16,megarand.ru,None
1870917,0120bc30e78ba5582617a9f3d6dfd8ca,vk.com/feed?section=comments,2015-12-31 09:18:38,6,vk.com,None
1354612,0120bc30e78ba5582617a9f3d6dfd8ca,vk.com/antoninaribina,2015-12-31 09:18:44,56,vk.com,None
我需要按ID
分组,然后按used_at
进行分组,其中2个字符串之间的差异超过500秒
。
我尝试过:
df.groupby([df['ID', 'used_at'],pd.TimeGrouper(freq='5Min')])
但是它返回了
KeyError: ('ID', 'used_at')
。
df.groupby([df[['ID', 'used_at']],pd.TimeGrouper(freq='5Min')])
,需要传递一个字符串列表,你尝试传递的实际上是一个元组,因此导致了关键字错误。 - EdChumValueError: '<class 'pandas.core.frame.DataFrame'>'的分组器不是一维的
- NineWaspsdf.groupby([df[['ID', 'used_at'],pd.TimeGrouper(freq='5Min')])
这个代码能正常运行吗? - EdChumTypeError: unhashable type: 'list'
。 - NineWasps