使用Python爬取Yahoo财经动态收益数据教程

使用Python爬取Yahoo财经动态收益数据教程

本教程旨在解决使用python爬取yahoo财经动态加载收益数据时遇到的挑战。传统基于`beautifulsoup`的静态html解析方法在此类场景中无效。文章将详细指导如何通过模拟浏览器对yahoo财经后端api的post请求,获取包含公司名称、事件类型和发布时间等详细收益信息的结构化json数据,并提供了完整的python代码示例及注意事项。

动态网页数据抓取的挑战

在尝试从Yahoo财经等现代网站抓取数据时,开发者常会遇到一个问题:即使使用requests库成功获取了页面内容,BeautifulSoup也无法找到预期的元素。这通常是因为网站采用了javaScript动态加载数据。用户在浏览器中看到的实时数据并非直接嵌入在初始html中,而是通过javascript在页面加载后向后端API发起请求,并将返回的数据渲染到页面上。

对于Yahoo财经的收益日历页面,直接解析其HTML (https://finance.yahoo.com/Calendar/earnings?day={date}) 往往只能获取到页面的静态骨架,而实际的收益数据(如公司名称、收益发布时间等)则是由JavaScript异步加载的。因此,传统的requests + BeautifulSoup组合无法直接获取到这些动态数据。

解决方案:模拟API请求

要成功抓取动态加载的数据,我们需要模拟浏览器发起的实际API请求。这通常涉及以下步骤:

  1. 识别API端点: 使用浏览器的开发者工具(通常是F12),在“网络”或“Network”选项卡中监控页面加载过程。当页面显示出目标数据时,查找类型为XHR/Fetch的请求,这些请求通常会返回jsON或xml格式的数据。
  2. 分析请求参数: 检查识别出的API请求的URL、请求方法(GET/POST)、请求头(Headers)、查询参数(Query Parameters)以及请求体(Request Payload)。这些信息对于成功模拟请求至关重要。
  3. 构建Python请求: 使用requests库根据分析结果构建并发送请求。

通过对Yahoo财经收益日历页面的分析,可以发现其动态数据是通过向 https://query2.finance.yahoo.com/v1/finance/visualization 这个API端点发送 POST 请求获取的。

立即学习Python免费学习笔记(深入)”;

构建API请求详情

模拟Yahoo财经API请求需要以下几个关键组成部分:

1. 请求头 (Headers)

User-Agent 是一个重要的请求头,它告诉服务器发起请求的客户端类型。模拟一个常见的浏览器User-Agent可以有效避免某些网站的简单反爬机制。

使用Python爬取Yahoo财经动态收益数据教程

怪兽AI数字人

数字人短视频创作,数字人直播,实时驱动数字人

使用Python爬取Yahoo财经动态收益数据教程 44

查看详情 使用Python爬取Yahoo财经动态收益数据教程

headers = {     "User-Agent": "Mozilla/5.0 (X11; Ubuntu; linux x86_64; rv:120.0) Gecko/20100101 Firefox/120.0", }

2. 查询参数 (URL Parameters)

URL中包含一些查询参数,这些参数通常用于指定语言、地区等信息。crumb 参数是一个安全令牌,它可能会随时间变化。在实际生产环境中,可能需要先从页面动态获取此crumb值。

params = {     "crumb": "EwuCwsPbKM2", # 此值可能需要动态获取     "lang": "en-US",     "region": "US",     "corsDomain": "finance.yahoo.com", }

3. json请求体 (Request Payload)

这是最核心的部分,它定义了要查询的数据类型、字段、过滤条件(如日期范围、地区)和排序方式。

  • entityIdType: 指定查询实体类型,此处为”earnings”。
  • includeFields: 一个列表,包含我们希望从API响应中获取的字段,例如ticker (股票代码), companyshortname (公司简称), eventname (事件名称), startdatetime (开始日期时间), `epsestimate (EPS预估)等。
  • offset, size: 用于分页,offset表示偏移量,size表示每页返回的记录数。
  • query: 这是一个嵌套的字典,定义了数据过滤逻辑。
    • operands: 一个列表,每个元素定义一个过滤条件。
      • 例如,{“operands”: [“startdatetime”, “2023-12-15”], “operator”: “gte”} 表示startdatetime大于或等于2023-12-15。
      • {“operands”: [“startdatetime”, “2023-12-16”], “operator”: “lt”} 表示startdatetime小于2023-12-16。
      • {“operands”: [“region”, “us”], “operator”: “eq”} 表示region等于us。
    • operator: 将多个条件组合起来的逻辑操作符,此处为”and”。
  • sortField, sortType: 定义结果的排序字段和排序方式。
query = {     "entityIdType": "earnings",     "includeFields": [         "ticker",         "companyshortname",         "eventname",         "startdatetime",         "startdatetimetype",         "epsestimate",         "epsactual",         "epssurprisepct",         "timeZoneShortName",         "gmtOffsetMilliSeconds",     ],     "offset": 0,     "query": {         "operands": [             {"operands": ["startdatetime", "2023-12-15"], "operator": "gte"}, # 查询开始日期             {"operands": ["startdatetime", "2023-12-16"], "operator": "lt"},  # 查询结束日期 (不包含)             {"operands": ["region", "us"], "operator": "eq"},         ],         "operator": "and",     },     "size": 100,     "sortField": "companyshortname",     "sortType": "ASC", }

4. cookie

A3 cookie是另一个重要的组成部分,它可能与用户会话或认证有关。与crumb类似,这个cookie的值也可能动态变化,需要特别注意。在提供的示例中,它被硬编码,但在实际应用中,更稳健的方法是在每次请求前获取最新的A3 cookie。

# 此cookie值可能随时间变化,需要定期更新或动态获取 cookie = "d=AQABBK8KXmQCEA8-VE0dBLqG5QEpQ7OglmEFEgABCAHCeWWpZfNtb2UB9qMAAAcIqgpeZJj7vK8&S=AQAAAqhyTAOrxcxONc4ktfzCOkg"

完整代码示例

结合以上分析,我们可以构建一个完整的Python脚本来抓取指定日期的Yahoo财经收益数据。

import requests from datetime import date, timedelta  def get_yahoo_earnings(target_date: date):     """     从Yahoo财经API获取指定日期的收益数据。      Args:         target_date (date): 要查询的日期对象。      Returns:         list: 包含收益数据字典的列表,如果请求失败则返回空列表。     """      headers = {         "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:120.0) Gecko/20100101 Firefox/120.0",     }      url = "https://query2.finance.yahoo.com/v1/finance/visualization"      # crumb参数可能需要动态获取,此处为示例值     params = {         "crumb": "EwuCwsPbKM2", # 注意:此值可能失效,需要从Yahoo页面动态抓取         "lang": "en-US",         "region": "US",         "corsDomain": "finance.yahoo.com",     }      # 构建查询日期范围     start_date_str = target_date.strftime("%Y-%m-%d")     end_date_str = (target_date + timedelta(days=1)).strftime("%Y-%m-%d")      query = {         "entityIdType": "earnings",         "includeFields": [             "ticker",             "companyshortname",             "eventname",             "startdatetime",             "startdatetimetype",             "epsestimate",             "epsactual",             "epssurprisepct",             "timeZoneShortName",             "gmtOffsetMilliSeconds",         ],         "offset": 0,         "query": {             "operands": [                 {"operands": ["startdatetime", start_date_str], "operator": "gte"},                 {"operands": ["startdatetime", end_date_str], "operator": "lt"},                 {"operands": ["region", "us"], "operator": "eq"},             ],             "operator": "and",         },         "size": 100, # 可根据需要调整每页返回数量         "sortField": "companyshortname",         "sortType": "ASC",     }      # A3 cookie也可能失效,需要动态获取     cookie = "d=AQABBK8KXmQCEA8-VE0dBLqG5QEpQ7OglmEFEgABCAHCeWWpZfNtb2UB9qMAAAcIqgpeZJj7vK8&S=AQAAAqhyTAOrxcxONc4ktfzCOkg"      earnings_data = []     with requests.Session() as s:         s.headers.update(headers)         s.cookies["A3"] = cookie # 设置A3 cookie          try:             response = s.post(url, params=params, json=query)             response.raise_for_status()  # 检查HTTP错误             data = response.json()              if data and "finance" in data and "result" in data["finance"] and                 data["finance"]["result"] and data["finance"]["result"][0]["documents"]:                 for doc in data["finance"]["result"][0]["documents"]:                     if "rows" in doc:                         for r in doc["rows"]:                             # 提取并格式化数据                             company_name = r[1] if len(r) > 1 else ""                             event_name = r[2] if len(r) > 2 and r[2] else ""                             start_datetime = r[3] if len(r) > 3 else ""                             earnings_data.append({                                 "company_name": company_name,                                 "event_name": event_name,                                 "start_datetime": start_datetime                             })             else:                 print(f"API响应中未找到预期数据结构: {data}")          except requests.exceptions.RequestException as e:             print(f"请求失败: {e}")         except ValueError as e:             print(f"JSON解析错误: {e}")      return earnings_data  if __name__ == "__main__":     # 获取昨天的日期 (假设今天是周日,昨天是周六,我们需要周五的收益)     # 实际应用中,可以直接指定日期     today = date.today()     # 调整为上一个工作日,例如,如果今天是周日,则获取上周五的日期     target_date = today - timedelta(days=2) # 示例:如果今天是周日,这将是周五      print(f"尝试获取 {target_date.strftime('%Y-%m-%d')} 的收益数据...")     earnings = get_yahoo_earnings(target_date)      if earnings:         print(f"n{target_date.strftime('%Y-%m-%d')} 收益数据:")         for item in earnings:             print(f"{item['company_name']:<40} {item['event_name']:<40} {item['start_datetime']:<30}")     else:         print(f"未能获取 {target_date.strftime('%Y-%m-%d')} 的收益数据。")      # 示例:获取特定日期的收益     specific_date = date(2023, 12, 15)     print(f"n尝试获取 {specific_date.strftime('%Y-%m-%d')} 的收益数据...")     earnings_specific = get_yahoo_earnings(specific_date)     if earnings_specific:         print(f"n{specific_date.strftime('%Y-%m-%d')} 收益数据:")         for item in earnings_specific:             print(f"{item['company_name']:<40} {item['event_name']:<40} {item['start_datetime']:<30}")     else:         print(f"未能获取 {specific_date.strftime('%Y-%m-%d')} 的收益数据。")

示例输出 (根据实际API响应可能有所不同):

尝试获取 2023-12-15 的收益数据...  2023-12-15 收益数据: Lewis and Clark Bank                     Q3 2023  Earnings Release                2023-12-15T13:10:00.000Z       Alzamend Neuro, Inc.                                                              2023-12-15T16:32:00.000Z       ATIF Holdings Ltd                        Q1 2024  Earnings Release                2023-12-15T21:00:00.000Z       Barnwell Industries Inc                  Q4 2023  Earnings Release                2023-12-15T23:05:13.000Z       Quanex Building Products Corp            Q4 2023  Earnings Call                   2023-12-15T16:00:00.000Z       PharmaCyte Biotech, Inc.                                                          2023-12-15T17:27:00.000Z       Edesa Biotech, Inc.                                                               2023-12-15T16:10:00.000Z       Butler National Corporation                                                       2023-12-15T09:47:00.000Z       Enzo Biochem, Inc.                                                                2023-12-15T16:17:00:00.000Z       Everything Blockchain Inc                Q3 2024  Earnings Release                2023-12-15T21:05:00.000Z       ... (更多数据)

注意事项与最佳实践

  1. 动态crumb和cookie的处理: 示例代码中的crumb和A3 cookie是硬编码的。这些值可能会随时间变化或因用户会话而异。在生产环境中,建议实现一个机制来动态获取这些值。这通常涉及:
    • 首先对Yahoo财经日历页面进行一次GET请求。
    • 使用BeautifulSoup或正则表达式从响应HTML中提取crumb值。
    • 从requests响应对象中获取并设置A3 cookie。
    • 或者,使用如Selenium等无头浏览器库来模拟完整的浏览器行为,让其自动处理cookie和JavaScript渲染。
  2. 日期处理: query参数中的startdatetime是UTC时间。在构建查询时,请确保日期字符串格式正确 (YYYY-MM-DD),并考虑时区转换,以获取目标区域的准确日期数据。
  3. 错误处理: 务必添加健壮的错误处理机制,包括网络请求失败、JSON解析失败以及API响应结构不符合预期的情况。
  4. 速率限制与IP封锁: 频繁或高速的请求可能会触发网站的速率限制,导致IP被暂时或永久封锁。建议在请求之间添加适当的延迟 (time.sleep()),并考虑使用代理IP池。
  5. 数据字段: includeFields列表可以根据需要进行调整,以获取更多或更少的数据字段。
  6. 分页处理: 如果某一天的收益数据量超过size参数(例如100条),你需要通过调整offset参数来多次请求,以获取所有数据。

总结

通过模拟Yahoo财经的后端API请求,我们可以有效地绕过前端JavaScript渲染的限制,直接获取结构化的动态数据。这种方法比传统的BeautifulSoup解析更稳定、更高效,并且能够获取更精确的数据。然而,动态参数(如crumb和cookie)的管理是实现健壮爬虫的关键挑战,需要开发者投入额外精力进行动态获取和维护。遵循上述最佳实践,可以帮助您构建一个稳定且高效的Yahoo财经收益数据爬虫。

上一篇
下一篇
text=ZqhQzanResources