Kafka 实时应用程序(Twitter)

让我们分析一个实时应用程序,以获取最新的Twitter Feed和其标签。早些时候,我们已经看到了Storm和Spark与Kafka的集成。在这两种情况下,我们创建了一个Kafka生产者(使用cli)向Kafka生态系统发送消息。然后,stormspark集成通过使用Kafka消费者读取消息,并将其分别注入到storm和spark生态系统中。因此,实际上我们需要创建一个Kafka Producer,

  • 使用“Twitter Streaming API"阅读Twitter Feed,
  • 处理Feeds,
  • 提取HashTags
  • 发送到Kafka。

一旦Kafka接收到 HashTags ,Storm / Spark集成接收到该信息并将其发送到Storm / Spark生态系统。

Twitter Streaming API

“Twitter Streaming API"可以使用任何编程语言访问。“twitter4j"是一个开源的非官方Java库,它提供了一个基于Java的模块,可以轻松访问“Twitter Streaming API"。“twitter4j"提供了一个基于监听器的框架来访问tweet。要访问“Twitter Streaming API",我们需要登录Twitter开发者帐户,并应获取以下 OAuth 身份验证详细信息。

  • Customerkey
  • CustomerSecret
  • AccessToken
  • AccessTookenSecret

创建开发人员帐户后,下载“twitter4j"jar文件并将其放置在java类路径中。

完整的Twitter Kafka生产者编码(KafkaTwitterProducer.java)如下所列 -

  1. import java.util.Arrays;
  2. import java.util.Properties;
  3. import java.util.concurrent.LinkedBlockingQueue;
  4.  
  5. import twitter4j.*;
  6. import twitter4j.conf.*;
  7.  
  8. import org.apache.kafka.clients.producer.Producer;
  9. import org.apache.kafka.clients.producer.KafkaProducer;
  10. import org.apache.kafka.clients.producer.ProducerRecord;
  11.  
  12. public class KafkaTwitterProducer {
  13. public static void main(String[] args) throws Exception {
  14. LinkedBlockingQueue<Status> queue = new LinkedBlockingQueue<Sta-tus>(1000);
  15.  
  16. if(args.length < 5){
  17. System.out.println(
  18. "Usage: KafkaTwitterProducer <twitter-consumer-key>
  19. <twitter-consumer-secret> <twitter-access-token>
  20. <twitter-access-token-secret>
  21. <topic-name> <twitter-search-keywords>");
  22. return;
  23. }
  24.  
  25. String consumerKey = args[0].toString();
  26. String consumerSecret = args[1].toString();
  27. String accessToken = args[2].toString();
  28. String accessTokenSecret = args[3].toString();
  29. String topicName = args[4].toString();
  30. String[] arguments = args.clone();
  31. String[] keyWords = Arrays.copyOfRange(arguments, 5, arguments.length);
  32.  
  33. ConfigurationBuilder cb = new ConfigurationBuilder();
  34. cb.setDebugEnabled(true)
  35. .setOAuthConsumerKey(consumerKey)
  36. .setOAuthConsumerSecret(consumerSecret)
  37. .setOAuthAccessToken(accessToken)
  38. .setOAuthAccessTokenSecret(accessTokenSecret);
  39.  
  40. TwitterStream twitterStream = new TwitterStreamFactory(cb.build()).get-Instance();
  41. StatusListener listener = new StatusListener() {
  42.  
  43. @Override
  44. public void onStatus(Status status) {
  45. queue.offer(status);
  46.  
  47. // System.out.println("@" &plus; status.getUser().getScreenName()
  48. &plus; " - " &plus; status.getText());
  49. // System.out.println("@" &plus; status.getUser().getScreen-Name());
  50.  
  51. /*for(URLEntity urle : status.getURLEntities()) {
  52. System.out.println(urle.getDisplayURL());
  53. }*/
  54.  
  55. /*for(HashtagEntity hashtage : status.getHashtagEntities()) {
  56. System.out.println(hashtage.getText());
  57. }*/
  58. }
  59.  
  60. @Override
  61. public void onDeletionNotice(StatusDeletionNotice statusDeletion-Notice) {
  62. // System.out.println("Got a status deletion notice id:"
  63. &plus; statusDeletionNotice.getStatusId());
  64. }
  65.  
  66. @Override
  67. public void onTrackLimitationNotice(int numberOfLimitedStatuses) {
  68. // System.out.println("Got track limitation notice:" &plus;
  69. num-berOfLimitedStatuses);
  70. }
  71.  
  72. @Override
  73. public void onScrubGeo(long userId, long upToStatusId) {
  74. // System.out.println("Got scrub_geo event userId:" &plus; userId &plus;
  75. "upToStatusId:" &plus; upToStatusId);
  76. }
  77.  
  78. @Override
  79. public void onStallWarning(StallWarning warning) {
  80. // System.out.println("Got stall warning:" &plus; warning);
  81. }
  82.  
  83. @Override
  84. public void onException(Exception ex) {
  85. ex.printStackTrace();
  86. }
  87. };
  88. twitterStream.addListener(listener);
  89.  
  90. FilterQuery query = new FilterQuery().track(keyWords);
  91. twitterStream.filter(query);
  92.  
  93. Thread.sleep(5000);
  94.  
  95. //Add Kafka producer config settings
  96. Properties props = new Properties();
  97. props.put("bootstrap.servers", "localhost:9092");
  98. props.put("acks", "all");
  99. props.put("retries", 0);
  100. props.put("batch.size", 16384);
  101. props.put("linger.ms", 1);
  102. props.put("buffer.memory", 33554432);
  103.  
  104. props.put("key.serializer",
  105. "org.apache.kafka.common.serializa-tion.StringSerializer");
  106. props.put("value.serializer",
  107. "org.apache.kafka.common.serializa-tion.StringSerializer");
  108.  
  109. Producer<String, String> producer = new KafkaProducer<String, String>(props);
  110. int i = 0;
  111. int j = 0;
  112.  
  113. while(i < 10) {
  114. Status ret = queue.poll();
  115.  
  116. if (ret == null) {
  117. Thread.sleep(100);
  118. i++;
  119. }else {
  120. for(HashtagEntity hashtage : ret.getHashtagEntities()) {
  121. System.out.println("Hashtag: " &plus; hashtage.getText());
  122. producer.send(new ProducerRecord<String, String>(
  123. top-icName, Integer.toString(j++), hashtage.getText()));
  124. }
  125. }
  126. }
  127. producer.close();
  128. Thread.sleep(5000);
  129. twitterStream.shutdown();
  130. }
  131. }

汇编

使用以下命令编译应用程序 -

  1. javac -cp "/path/to/kafka/libs/*":"/path/to/twitter4j/lib/*":. KafkaTwitterProducer.java

执行

打开两个控制台。在一个控制台中运行上面编译的应用程序,如下所示。

  1. java -cp “/path/to/kafka/libs/*":"/path/to/twitter4j/lib/*":
  2. . KafkaTwitterProducer <twitter-consumer-key>
  3. <twitter-consumer-secret>
  4. <twitter-access-token>
  5. <twitter-ac-cess-token-secret>
  6. my-first-topic food

在另一个窗口中运行前一章中解释的Spark / Storm应用程序中的任何一个。主要要注意的是,在这两种情况下使用的主题应该是相同的。在这里,我们使用“我的第一主题"作为主题名称。

输出

此应用程序的输出将取决于关键字和Twitter的当前Feed。下面指定样本输出(集成storm)。

  1. . . .
  2. food : 1
  3. foodie : 2
  4. burger : 1
  5. . . .