Как создать приложение для извлечения котировок акций в python

Я совершенно новичок в программировании в Python.

Я хочу сделать приложение, которое будет fetch цены на акции С Google финансы. Одним из примеров является CSCO (Cisco Sytems). Затем я бы использовал эти данные для предупредите пользователя, когда запас достигнет определенного значения. Он также должен обновление каждые 30 секунд.

проблема в том что я не знаю, как забрать Дейта!

У кого-нибудь есть идеи?

8 ответов


этот модуль поставляется любезно Кори Гольдберг.

программа:

import urllib
import re

def get_quote(symbol):
    base_url = 'http://finance.google.com/finance?q='
    content = urllib.urlopen(base_url + symbol).read()
    m = re.search('id="ref_694653_l".*?>(.*?)<', content)
    if m:
        quote = m.group(1)
    else:
        quote = 'no quote available for: ' + symbol
    return quote

Пример Использования:

import stockquote
print stockquote.get_quote('goog')

обновление: изменено регулярное выражение в соответствии с последним форматом Google Finance (по состоянию на 23-Feb-2011). Это демонстрирует основную проблему при использовании очистки экрана.


На данный момент (2015) api Google finance устарел. Но вы можете использовать модуль pypi googlefinance.

установить googlefinance

$pip install googlefinance

легко получить текущую цену акций:

>>> from googlefinance import getQuotes
>>> import json
>>> print json.dumps(getQuotes('AAPL'), indent=2)
[
  {
    "Index": "NASDAQ", 
    "LastTradeWithCurrency": "129.09", 
    "LastTradeDateTime": "2015-03-02T16:04:29Z", 
    "LastTradePrice": "129.09", 
    "Yield": "1.46", 
    "LastTradeTime": "4:04PM EST", 
    "LastTradeDateTimeLong": "Mar 2, 4:04PM EST", 
    "Dividend": "0.47", 
    "StockSymbol": "AAPL", 
    "ID": "22144"
  }
]

Google finance-это источник, который предоставляет данные в реальном времени. Есть также другие API от yahoo, такие как yahoo-финансы, но они задерживаются на 15 минут для акций NYSE и NASDAQ.


import urllib
import re

def get_quote(symbol):
    base_url = 'http://finance.google.com/finance?q='
    content = urllib.urlopen(base_url + symbol).read()
    m = re.search('id="ref_(.*?)">(.*?)<', content)
    if m:
        quote = m.group(2)
    else:
        quote = 'no quote available for: ' + symbol
    return quote

Я считаю, что если вы используете ref_(.*?) и используйте M.группа(2), вы получите лучший результат, как базовый ID меняется от акции к акции.


Я предлагаю использовать HTMLParser, чтобы получить значение метатегов google в его html

<meta itemprop="name"
        content="Cerner Corporation" />
<meta itemprop="url"
        content="https://www.google.com/finance?cid=92421" />
<meta itemprop="imageUrl"
        content="https://www.google.com/finance/chart?cht=g&q=NASDAQ:CERN&tkr=1&p=1d&enddatetime=2014-04-09T12:47:31Z" />
<meta itemprop="tickerSymbol"
        content="CERN" />
<meta itemprop="exchange"
        content="NASDAQ" />
<meta itemprop="exchangeTimezone"
        content="America/New_York" />
<meta itemprop="price"
        content="54.66" />
<meta itemprop="priceChange"
        content="+0.36" />
<meta itemprop="priceChangePercent"
        content="0.66" />
<meta itemprop="quoteTime"
        content="2014-04-09T12:47:31Z" />
<meta itemprop="dataSource"
        content="NASDAQ real-time data" />
<meta itemprop="dataSourceDisclaimerUrl"
        content="//www.google.com/help/stock_disclaimer.html#realtime" />
<meta itemprop="priceCurrency"
        content="USD" />

С таким кодом:

import urllib
try:
    from html.parser import HTMLParser
except:
    from HTMLParser import HTMLParser

class QuoteData:
    pass

class GoogleFinanceParser(HTMLParser):
    def __init__(self):
        HTMLParser.__init__(self)
        self.quote = QuoteData()
        self.quote.price = -1

    def handle_starttag(self, tag, attrs):
        if tag == "meta":
            last_itemprop = ""
            for attr, value in attrs:
                if attr == "itemprop":
                    last_itemprop = value

                if attr == "content" and last_itemprop == "name":
                    self.quote.name = value
                if attr == "content" and last_itemprop == "price":
                    self.quote.price = value
                if attr == "content" and last_itemprop == "priceCurrency":
                    self.quote.priceCurrency = value
                if attr == "content" and last_itemprop == "priceChange":
                    self.quote.priceChange = value
                if attr == "content" and last_itemprop == "priceChangePercent":
                    self.quote.priceChangePercent = value
                if attr == "content" and last_itemprop == "quoteTime":
                    self.quote.quoteTime = value
                if attr == "content" and last_itemprop == "exchange":
                    self.quote.exchange = value
                if attr == "content" and last_itemprop == "exchangeTimezone":
                    self.quote.exchangeTimezone = value


def getquote(symbol):
    url = "http://finance.google.com/finance?q=%s" % symbol
    content = urllib.urlopen(url).read()

    gfp = GoogleFinanceParser()
    gfp.feed(content)
    return gfp.quote;


quote = getquote('CSCO')
print quote.name, quote.price

на всякий случай, если вы хотите вытащить данные из Yahoo... Вот простая функция. Это не соскребает данные с обычной страницы. Я думал, что у меня есть ссылка на страницу, описывающую это в комментариях, но я не вижу ее сейчас - есть волшебная строка, добавленная к URL-адресу для запроса определенных полей.

import urllib as u
import string
symbols = 'amd ibm gm kft'.split()

def get_data():
    data = []
    url = 'http://finance.yahoo.com/d/quotes.csv?s='
    for s in symbols:
        url += s+"+"
    url = url[0:-1]
    url += "&f=sb3b2l1l"
    f = u.urlopen(url,proxies = {})
    rows = f.readlines()
    for r in rows:
        values = [x for x in r.split(',')]
        symbol = values[0][1:-1]
        bid = string.atof(values[1])
        ask = string.atof(values[2])
        last = string.atof(values[3])
        data.append([symbol,bid,ask,last,values[4]])
    return data

здесь я нашел ссылку, которая описывает волшебную строку: http://cliffngan.net/a/13


http://docs.python.org/library/urllib.html для получения произвольных URL-адресов.

кроме того, вы должны лучше посмотреть некоторые веб-службы, предоставляющие данные в формате JSON.

в противном случае вам придется реализовать парсинг и т. д. самостоятельно.

Screenscrapping yahoo.com для получения акций маловероятен правильный путь к успеху.


вы можете начать, глядя на Google Финансы API, хотя я не вижу API Python или оболочки. Похоже, что единственными вариантами прямого доступа к данным являются Java и JavaScript. Вы также можете использовать cURL Если вы знакомы с ним, и он доступен в вашей системе.


еще одно хорошее место для начала - собственный API Google Finance:http://code.google.com/apis/finance/ Вы можете посмотреть их финансы гаджеты для некоторого примера кода.