Twitter爬虫核心技术:全自动抓取世界上的主题以及转推,引用,回复的用户的微博_第1页
Twitter爬虫核心技术:全自动抓取世界上的主题以及转推,引用,回复的用户的微博_第2页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

3/3Twitter爬虫核心技术:全自动抓取世界上的主题以及转推,引用,回复的用户的微博.importtwitter

defoauth_login():

#XXX:Gotohttp://./doc/7e279bdc48649b6648d7c1c708a1284ac85005ff.html/apps/newtocreateanappandgetvalues#forthesecredentialsthatyou'llneedtoprovideinplaceofthese

#emptystringvaluesthataredefinedasplaceholders.

#Seehttps://http://./doc/7e279bdc48649b6648d7c1c708a1284ac85005ff.html/docs/auth/oauthformoreinformation

#onTwitter'sOAuthimplementation.

CONSUMER_KEY=''

CONSUMER_SECRET=''

OAUTH_TOKEN=''

OAUTH_TOKEN_SECRET=''

auth=twitter.oauth.OAuth(OAUTH_TOKEN,OAUTH_TOKEN_SECRET,

CONSUMER_KEY,CONSUMER_SECRET)

twitter_api=twitter.Twitter(auth=auth)

returntwitter_api

#Sampleusage

twitter_api=oauth_login()

#Nothingtoseebydisplayingtwitter_apiexceptthatit'snowa

#definedvariable

printtwitter_api

importjson

deftwitter_trends(twitter_api,woe_id):

#PrefixIDwiththeunderscoreforquerystringparameterization.

#Withouttheunderscore,thetwitterpackageappendstheIDvalue

#totheURLitselfasaspecial-casekeywordargument.

returntwitter_api.trends.place(_id=woe_id)

deftwitter_search(twitter_api,q,max_results=2000000,**kw):

#Seehttps://http://./doc/7e279bdc48649b6648d7c1c708a1284ac85005ff.html/docs/api/1.1/get/search/tweetsand

#https://http://./doc/7e279bdc48649b6648d7c1c708a1284ac85005ff.html/docs/using-searchfordetailsonadvanced

#searchcriteriathatmaybeusefulforkeywordarguments

#Seehttps://http://./doc/7e279bdc48649b6648d7c1c708a1284ac85005ff.html/docs/api/1.1/get/search/tweets

search_results=twitter_api.search.tweets(q=q,count=200000,**kw)

statuses=search_results['statuses']

#Iteratethroughbatchesofresultsbyfollowingthecursoruntilwe

#reachthedesirednumberofresults,keepinginmindthatOAuthusers#can"only"make180searchqueriesper15-minuteinterval.See

#https://http://./doc/7e279bdc48649b6648d7c1c708a1284ac85005ff.html/docs/rate-limiting/1.1/limits

#fordetails.Areasonablenumberofresultsis~1000,although

#thatnumberofresultsmaynotexistforallqueries.

#Enforceareasonablelimit

max_results=min(1000,max_results)

for_inrange(10):#10*100=1000

try:

next_results=search_results['search_metadata']['next_results']exceptKeyError,e:#Nomoreresultswhennext_resultsdoesn'texistbreak

#Createadictionaryfromnext_results,whichhasthefollowingform:

#?max_id=313519052523986943&q=NCAA&include_entities=1

kwargs=dict([kv.split('=')

forkvinnext_results[1:].split("&")])

search_results=twitter_api.search.tweets(**kwargs)

statuses+=search_results['statuses']

iflen(statuses)>max_results:

break

returnstatuses

defextract_tweet_entities(statuses):

#Seehttps://http://./doc/7e279bdc48649b6648d7c1c708a1284ac85005ff.html/docs/tweet-entitiesformoredetailsontweet

#entities

iflen(statuses)==0:

return[],[],[],[],[]

screen_names=[user_mention['screen_name']

forstatusinstatuses

foruser_mentioninstatus['entities']['user_mentions']]

hashtags=[hashtag['text']

forstatusinstatuses

forhashtaginstatus['entities']['hashtags']]

urls=[url['expanded_url']

forstatusinstatuses

forurlinstatus['entities']['urls']]

symbols=[symbol['text']

forstatusinstatuses

forsymbolinstatus['entities']['symbols']]

#Insomecircumstances(suchassearchresults),themediaentity

#maynotappear

ifstatus['entities'].has_key('media'):

media=[media['url']

forstatusinstatuses

formediainstatus['entities']['media']]else:

media=[]

returnscreen_names,hashtags,urls,media,symbols

deffind_po

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论