Arquitetura do sistema de negociação eletrônica


Arquitetura do Sistema de Negociação Algorítmica.
Anteriormente neste blog, escrevi sobre a arquitetura conceitual de um sistema inteligente de comércio algorítmico, bem como os requisitos funcionais e não funcionais de um sistema de negociação algorítmica de produção. Desde então, projetei uma arquitetura de sistema que, acredito, poderia satisfazer esses requisitos arquitetônicos. Neste post, descreverei a arquitetura seguindo as diretrizes dos padrões ISO / IEC / IEEE 42010 e o padrão de descrição da arquitetura de engenharia de software. De acordo com este padrão, uma descrição de arquitetura deve:
Contém múltiplas visualizações de arquitetura padronizadas (por exemplo, em UML) e mantém a rastreabilidade entre as decisões de design e os requisitos de arquitetura.
Definição de arquitetura de software.
Ainda não há consenso sobre o que é uma arquitetura de sistema. No contexto deste artigo, ele é definido como a infraestrutura na qual os componentes do aplicativo que satisfazem os requisitos funcionais podem ser especificados, implementados e executados. Requisitos funcionais são as funções esperadas do sistema e seus componentes. Requisitos não funcionais são medidas através das quais a qualidade do sistema pode ser medida.
Um sistema que satisfaz plenamente seus requisitos funcionais ainda pode falhar em atender às expectativas se os requisitos não funcionais forem deixados insatisfeitos. Para ilustrar esse conceito, considere o seguinte cenário: um sistema de negociação algorítmica que você acabou de comprar / construir faz excelentes decisões de negociação, mas é completamente inoperável com os sistemas de contabilidade e gerenciamento de risco da organização. Este sistema atenderia às suas expectativas?
Arquitetura conceitual.
Uma visão conceitual descreve conceitos e mecanismos de alto nível que existem no sistema no mais alto nível de granularidade. Nesse nível, o sistema de negociação algorítmica segue uma arquitetura orientada a eventos (EDA) dividida em quatro camadas e dois aspectos arquitetônicos. Para cada camada e referência, arquiteturas e padrões de referência são usados. Padrões arquitetônicos são estruturas genéricas comprovadas para atingir requisitos específicos. Aspectos arquitetônicos são preocupações transversais que abrangem múltiplos componentes.
Arquitetura orientada a eventos - uma arquitetura que produz, detecta, consome e reage a eventos. Os eventos incluem movimentos do mercado em tempo real, eventos ou tendências complexas e eventos de negociação, por ex. enviando um pedido.
Este diagrama ilustra a arquitetura conceitual do sistema de negociação algorítmica.
Arquiteturas de Referência.
Para usar uma analogia, uma arquitetura de referência é semelhante às plantas de uma parede de suporte de carga. Essa impressão em azul pode ser reutilizada para vários projetos de construção, independentemente do prédio que está sendo construído, uma vez que satisfaz um conjunto de requisitos comuns. Da mesma forma, uma arquitetura de referência define um modelo contendo estruturas e mecanismos genéricos que podem ser usados ​​para construir uma arquitetura de software concreta que atenda a requisitos específicos. A arquitetura para o sistema de comércio algorítmico usa uma arquitetura baseada em espaço (SBA) e um controlador de visão de modelo (MVC) como referência. Boas práticas, como o armazenamento de dados operacionais (ODS), o padrão de transformação e carga de extração (ETL) e um data warehouse (DW) também são usados.
Model view controller - um padrão que separa a representação da informação da interação do usuário com ela. Arquitetura baseada no espaço - especifica uma infraestrutura onde unidades de processamento fracamente acopladas interagem entre si por meio de uma memória associativa compartilhada chamada espaço (mostrada abaixo).
Visão Estrutural.
A visão estrutural de uma arquitetura mostra os componentes e subcomponentes do sistema de negociação algorítmica. Também mostra como esses componentes são implantados na infraestrutura física. Os diagramas UML usados ​​nessa exibição incluem diagramas de componentes e diagramas de implementação. Abaixo está a galeria dos diagramas de implantação do sistema de comércio algorítmico geral e as unidades de processamento na arquitetura de referência SBA, bem como diagramas de componentes relacionados para cada uma das camadas.
Diagrama do componente de comerciante / processamento de eventos automatizado Diagrama do componente da camada de origem de dados e de pré-processamento Diagrama do componente da interface com o usuário baseado em MVC.
Táticas Arquitetônicas.
De acordo com o instituto de engenharia de software, uma tática arquitetônica é um meio de satisfazer um requisito de qualidade, manipulando algum aspecto de um modelo de atributo de qualidade através de decisões de design arquitetônico. Um exemplo simples usado na arquitetura do sistema de negociação algorítmica é 'manipular' um armazenamento de dados operacional (ODS) com um componente contínuo de consulta. Esse componente analisaria continuamente o ODS para identificar e extrair eventos complexos. As seguintes táticas são usadas na arquitetura:
O padrão de disruptor nas filas de eventos e pedidos Memória compartilhada para o evento e filas de pedidos Linguagem de consulta contínua (CQL) no ODS Filtragem de dados com o padrão de design de filtro nos dados recebidos Algoritmos de evasão de congestionamento em todas as conexões de entrada e saída Gerenciamento de filas ativas (AQM ) e notificação explícita de congestionamento Recursos de computação de commodities com capacidade de atualização (escalonável) Redundância ativa para todos os pontos únicos de falha Estrutura de indexação e otimização otimizada no ODS Agendamento de backup regular de dados e scripts de limpeza para ODS Histórico de transações em todos os bancos de dados ordens para detectar falhas Anotar eventos com registros de tempo para pular eventos 'obsoletos' Regras de validação de pedidos, por exemplo quantidades máximas de negociação Componentes de negociador automatizado usam um banco de dados em memória para análise Autenticação de dois estágios para interfaces de usuário conectando-se aos ATs Criptografia em interfaces de usuário e conexões ao padrão de projeto ATs Observer para o MVC gerenciar visualizações.
A lista acima é apenas algumas decisões de design que identifiquei durante o design da arquitetura. Não é uma lista completa de táticas. À medida que o sistema está sendo desenvolvido, táticas adicionais devem ser empregadas em vários níveis de granularidade para atender aos requisitos funcionais e não funcionais. Abaixo, há três diagramas descrevendo o padrão de design do disruptor, o padrão de design do filtro e o componente de consulta contínua.
Visão Comportamental.
Essa visão de uma arquitetura mostra como os componentes e camadas devem interagir uns com os outros. Isso é útil ao criar cenários para testar projetos de arquitetura e para entender o sistema de ponta a ponta. Esta visão consiste em diagramas de seqüência e diagramas de atividades. Os diagramas de atividades que mostram o processo interno do sistema de comércio algorítmico e como os comerciantes devem interagir com o sistema de comércio algorítmico são mostrados abaixo.
Tecnologias e frameworks.
A etapa final no projeto de uma arquitetura de software é identificar possíveis tecnologias e estruturas que possam ser usadas para realizar a arquitetura. Como princípio geral, é melhor aproveitar as tecnologias existentes, desde que satisfaçam adequadamente os requisitos funcionais e não funcionais. Uma estrutura é uma arquitetura de referência realizada, por ex. O JBoss é um framework que realiza a arquitetura de referência do JEE. As seguintes tecnologias e estruturas são interessantes e devem ser consideradas ao implementar um sistema de comércio algorítmico:
CUDA - A NVidia possui vários produtos que suportam modelagem de finanças computacionais de alto desempenho. É possível obter até 50x melhorias de desempenho na execução de simulações de Monte Carlo na GPU em vez da CPU. Apache River - River é um kit de ferramentas usado para desenvolver sistemas distribuídos. Ele foi usado como uma estrutura para construir aplicativos baseados no padrão SBA Apache Hadoop - no caso em que o registro generalizado é um requisito, o uso do Hadoop oferece uma solução interessante para o problema de big data. O Hadoop pode ser implementado em um ambiente em cluster que suporta tecnologias CUDA. AlgoTrader - uma plataforma de negociação algorítmica de código aberto. O AlgoTrader poderia ser implantado no lugar dos componentes do negociador automatizado. FIX Engine - um aplicativo independente que suporta os protocolos Financial Information Exchange (FIX), incluindo FIX, FAST e FIXatdl.
Embora não seja uma tecnologia ou uma estrutura, os componentes devem ser construídos com uma interface de programação de aplicativo (API) para melhorar a interoperabilidade do sistema e de seus componentes.
Conclusão.
A arquitetura proposta foi projetada para satisfazer requisitos muito genéricos identificados para sistemas de negociação algorítmica. De um modo geral, os sistemas de negociação algorítmica são complicados por três fatores que variam de acordo com cada implementação:
Dependências da empresa externa e sistemas de troca Desafiando requisitos não funcionais e Evitando restrições arquitetônicas.
A arquitetura de software proposta precisaria, portanto, ser adaptada caso a caso, a fim de satisfazer requisitos organizacionais e regulatórios específicos, bem como superar restrições regionais. A arquitetura do sistema de comércio algorítmico deve ser vista apenas como um ponto de referência para indivíduos e organizações que desejam projetar seus próprios sistemas de negociação algorítmica.
Para uma cópia completa e fontes utilizadas, faça o download de uma cópia do meu relatório. Obrigado.
História anterior
Requisitos do Sistema de Negociação Algorítmica.
Próxima história.
Otimização de portfólio usando otimização de enxame de partículas.
Excelente visão geral e um bom começo na arquitetura. Sua conclusão foi adequada e apontou por que os sistemas de software de negociação algorítmica exigem constantes testes e ajustes para mantê-los relevantes. Boa leitura!
1 de fevereiro de 2016.
Quando os dados de mercadorias ou renda fixa são imprecisos ou lentos, os modelos podem ter dificuldade em calcular, especialmente no espaço de um evento da Black Swann.
Muito obrigado por este artigo. Eu tenho pensado em IA em finanças desde o final dos anos 90, e finalmente as tecnologias e APIs estão normalmente disponíveis. Seu artigo e blog é uma grande ajuda para dar os primeiros passos para realizar os sonhos dos anos anteriores. Muito obrigado e boa sorte em seus empreendimentos adicionais!
Por favor, mantenha-me atualizado em seu progresso. Estou muito interessado. Obrigado.
Envie um comentário.
Cancelar resposta.
Siga Turing Finance.
Turing Finance Mailing List.
Amigos da Turing Finance.
A Quantocracia é o melhor agregador de blogs de finanças quantitativas com links para novas análises publicadas todos os dias.
NMRQL é o fundo de hedge quantitativo do qual faço parte. Usamos o aprendizado de máquina para tentar vencer o mercado.

Tutorial de Negociação Eletrônica.
O comércio de ações e commodities é anterior à invenção do computador - para não mencionar o telégrafo e o telefone. Pré-tecnologia, as primeiras trocas eram pouco mais do que reuniões informais de empresários locais que tinham interesses em comum, como um comprador de trigo e um vendedor de trigo. Com o tempo, as reuniões tornaram-se mais formais e organizadas à medida que os participantes elaboravam regras e regulamentos comuns. Eventualmente, o protesto aberto evoluiu - um sistema em que lances verbais e sinais manuais são usados ​​para transmitir informações nos pregões das bolsas.
Em 1969, a Instinet (originalmente denominada Redes Institucionais) lançou o primeiro sistema automatizado para instituições dos EUA para contornar o pregão e negociar diretamente entre si em uma base confidencial. A Nasdaq entrou em cena dois anos depois, em 1971. Inicialmente, era um sistema de cotação automatizada que permitia aos corretores ver os preços que outras empresas ofereciam - mas as negociações ainda eram feitas por telefone.
DOT e SOES.
Vários anos depois, a Bolsa de Valores de Nova York criou o sistema Turnaround de Pedido Designado (DOT - Designated Order Turnaround), que permitia aos corretores encaminhar pedidos diretamente a especialistas no pregão. Em 1984, o SuperDOT de última geração surgiu, permitindo que até 100.000 compartilhamentos fossem enviados ao plenário de uma só vez.
Eventualmente, a Nasdaq ofereceu seu próprio sistema de negociação automatizado - o Small Order Execution System (SOES) - e outras bolsas logo seguiram o exemplo.
Enquanto o criptografado aberto ainda é usado hoje em um grau limitado, ele foi quase totalmente substituído por sistemas eletrônicos que oferecem menos erros, execução mais rápida e melhor eficiência. O comércio eletrônico domina o mundo financeiro e pode ser útil para investidores e traders entenderem como ele funciona. Para ajudar você a começar, veja uma breve análise do comércio eletrônico, incluindo as trocas e a tecnologia principal.

Arquitetura de pregão.
Idiomas disponíveis.
Opções de download.
Ver com o Adobe Reader em uma variedade de dispositivos.
Índice.
Arquitetura de pregão.
Visão geral executiva.
Maior concorrência, maior volume de dados de mercado e novas demandas regulatórias são algumas das forças motrizes por trás das mudanças na indústria. As empresas estão tentando manter sua vantagem competitiva mudando constantemente suas estratégias de negociação e aumentando a velocidade de negociação.
Uma arquitetura viável precisa incluir as tecnologias mais recentes dos domínios de rede e de aplicativo. Tem que ser modular para fornecer um caminho gerenciável para evoluir cada componente com o mínimo de interrupção no sistema geral. Portanto, a arquitetura proposta por este artigo é baseada em uma estrutura de serviços. Examinamos serviços como mensagens de baixíssima latência, monitoramento de latência, multicast, computação, armazenamento, virtualização de dados e aplicativos, resiliência comercial, mobilidade comercial e thin client.
A solução para os complexos requisitos da plataforma de negociação da próxima geração deve ser construída com uma mentalidade holística, cruzando as fronteiras de silos tradicionais como negócios e tecnologia ou aplicativos e redes.
O principal objetivo deste documento é fornecer diretrizes para a criação de uma plataforma de negociação de baixíssima latência e, ao mesmo tempo, otimizar o rendimento bruto e a taxa de mensagens para dados de mercado e ordens de negociação FIX.
Para conseguir isso, estamos propondo as seguintes tecnologias de redução de latência:
• Interconexão de alta velocidade - conectividade InfiniBand ou 10 Gbps para o cluster de negociação.
• Barramento de mensagens de alta velocidade.
• Aceleração de aplicativos via RDMA sem re-código do aplicativo.
• Monitoramento de latência em tempo real e redirecionamento do tráfego de negociação para o caminho com latência mínima.
Tendências e Desafios da Indústria.
As arquiteturas comerciais da próxima geração precisam responder às crescentes demandas por velocidade, volume e eficiência. Por exemplo, espera-se que o volume de dados do mercado de opções dobre após a introdução do trading centavo de opções em 2007. Há também demandas regulatórias para melhor execução, que exigem o manuseio de atualizações de preço a taxas que se aproximam de 1 milhão de msg / seg. para trocas. Eles também exigem visibilidade do frescor dos dados e prova de que o cliente obteve a melhor execução possível.
No curto prazo, a velocidade de negociação e inovação são os principais diferenciais. Um número crescente de negociações é tratado por aplicativos de comércio algorítmico colocados o mais próximo possível do local de execução da negociação. Um desafio com estes "black-box" mecanismos de negociação é que eles compõem o aumento de volume emitindo ordens apenas para cancelá-los e reenviá-los. A causa desse comportamento é a falta de visibilidade sobre qual local oferece a melhor execução. O comerciante humano é agora um "engenheiro financeiro" um "quant" (analista quantitativo) com habilidades de programação, que podem ajustar os modelos de negociação em tempo real. As empresas desenvolvem novos instrumentos financeiros, como derivativos climáticos ou negociações de classe entre ativos, e precisam implantar os novos aplicativos rapidamente e de forma escalável.
No longo prazo, a diferenciação competitiva deve vir da análise, não apenas do conhecimento. Os principais traders do futuro assumem riscos, obtêm uma visão verdadeira do cliente e batem consistentemente no mercado (fonte IBM: www-935.ibm/services/us/imc/pdf/ge510-6270-trader. pdf).
A resiliência dos negócios tem sido uma das principais preocupações das empresas de trading desde 11 de setembro de 2001. As soluções nesta área variam desde datacenters redundantes situados em diferentes geografias e conectados a múltiplos locais de negociação até soluções de trader virtual oferecendo aos operadores de mercado a maior parte da funcionalidade de uma mesa de negociação em um local remoto.
O setor de serviços financeiros é um dos mais exigentes em termos de requisitos de TI. O setor está passando por uma mudança arquitetônica em direção à Arquitetura Orientada a Serviços (SOA), serviços da Web e virtualização de recursos de TI. A SOA aproveita o aumento da velocidade da rede para permitir a vinculação dinâmica e a virtualização de componentes de software. Isso permite a criação de novos aplicativos sem perder o investimento em sistemas e infraestrutura existentes. O conceito tem o potencial de revolucionar a forma como a integração é feita, permitindo reduções significativas na complexidade e no custo de tal integração (gigaspaces / download / MerrilLynchGigaSpacesWP. pdf).
Outra tendência é a consolidação de servidores em farms de servidores de data center, enquanto as mesas de operação possuem apenas extensões KVM e clientes ultra-thin (por exemplo, SunRay e HP blade solutions). As redes de área metropolitana de alta velocidade permitem que os dados de mercado sejam multicast entre diferentes locais, permitindo a virtualização do pregão.
Arquitetura de alto nível.
A Figura 1 descreve a arquitetura de alto nível de um ambiente comercial. A fábrica de tickers e os mecanismos de negociação algorítmica estão localizados no cluster de negociação de alto desempenho no data center da empresa ou na bolsa. Os comerciantes humanos estão localizados na área de aplicativos do usuário final.
Funcionalmente, há dois componentes de aplicativos no ambiente comercial corporativo, editores e assinantes. O barramento de mensagens fornece o caminho de comunicação entre editores e assinantes.
Existem dois tipos de tráfego específicos para um ambiente de negociação:
• Dados de mercado - carrega informações sobre preços para instrumentos financeiros, notícias e outras informações de valor agregado, como análises. É unidirecional e muito sensível à latência, normalmente entregue em multicast UDP. É medido em atualizações / seg. e em Mbps. Os dados de mercado fluem de um ou vários feeds externos, provenientes de provedores de dados de mercado, como bolsas de valores, agregadores de dados e ECNs. Cada provedor tem seu próprio formato de dados de mercado. Os dados são recebidos por manipuladores de feeds, aplicativos especializados que normalizam e limpam os dados e os enviam para os consumidores de dados, como mecanismos de preços, aplicativos de comércio algorítmico ou comerciantes humanos. As empresas do lado da venda também enviam os dados do mercado para seus clientes, empresas compradoras, como fundos mútuos, fundos de hedge e outros gerentes de ativos. Algumas empresas de buy-side podem optar por receber feeds diretos das trocas, reduzindo a latência.
Figura 1 Arquitetura de negociação para uma empresa do lado de compra / venda.
Não existe um padrão da indústria para formatos de dados de mercado. Cada troca tem seu formato proprietário. Provedores de conteúdo financeiro, como Reuters e Bloomberg, agregam diferentes fontes de dados de mercado, normalizam e adicionam notícias ou análises. Exemplos de feeds consolidados são RDF (Reuters Data Feed), RWF (Reuters Wire Format) e Bloomberg Professional Services Data.
Para fornecer dados de mercado de latência mais baixa, os dois fornecedores lançaram feeds de dados de mercado em tempo real que são menos processados ​​e têm menos análises:
- Bloomberg B-Pipe - Com o B-Pipe, a Bloomberg separa seu feed de dados de mercado de sua plataforma de distribuição porque um terminal Bloomberg não é necessário para obter o B-Pipe. Wombat e Reuters Feed Handlers anunciaram o apoio ao B-Pipe.
Uma empresa pode decidir receber feeds diretamente de uma troca para reduzir a latência. Os ganhos na velocidade de transmissão podem variar entre 150 milissegundos e 500 milissegundos. Esses feeds são mais complexos e mais caros e a empresa precisa construir e manter sua própria fábrica de tickers (financetech / featured / showArticle. jhtml? ArticleID = 60404306).
• Ordens de negociação - esse tipo de tráfego transporta as negociações reais. É bidirecional e muito sensível à latência. É medido em mensagens / seg. e Mbps. Os pedidos são originários de uma empresa de buy side ou sell side e são enviados para plataformas de negociação como uma Exchange ou ECN para execução. O formato mais comum para o transporte de pedidos é o FIX (Financial Information eXchange - fixprotocol /). Os aplicativos que manipulam mensagens FIX são chamados de mecanismos FIX e interagem com sistemas de gerenciamento de pedidos (OMS).
Uma otimização para o FIX é chamada de FAST (correção adaptada para streaming), que usa um esquema de compactação para reduzir o tamanho da mensagem e, com efeito, reduzir a latência. O FAST é voltado mais para a entrega de dados de mercado e tem o potencial de se tornar um padrão. O FAST também pode ser usado como um esquema de compactação para formatos de dados de mercado proprietários.
Para reduzir a latência, as empresas podem optar por estabelecer o Acesso Direto ao Mercado (Direct Market Access - DMA).
O DMA é o processo automatizado de encaminhamento de uma ordem de títulos diretamente para um local de execução, evitando assim a intervenção de terceiros (towergroup / research / content / glossary. jsp? Page = 1 & glossaryId = 383). O DMA requer uma conexão direta com o local de execução.
O barramento de mensagens é um software de middleware de fornecedores como a Tibco, a 29West, a Reuters RMDS ou uma plataforma de código aberto, como o AMQP. O barramento de mensagens usa um mecanismo confiável para entregar mensagens. O transporte pode ser feito via TCP / IP (TibcoEMS, 29West, RMDS e AMQP) ou UDP / multicast (TibcoRV, 29West e RMDS). Um conceito importante na distribuição de mensagens é o & quot; stream de tópico & quot; que é um subconjunto de dados de mercado definidos por critérios como símbolo de ticker, setor ou uma determinada cesta de instrumentos financeiros. Os inscritos participam de grupos de tópicos mapeados em um ou vários subtópicos para receber apenas as informações relevantes. No passado, todos os comerciantes recebiam todos os dados do mercado. Nos volumes atuais de tráfego, isso seria sub-ótimo.
A rede desempenha um papel crítico no ambiente de negociação. Os dados de mercado são transportados para o pregão onde os comerciantes humanos estão localizados através de uma rede de alta velocidade Campus ou Metro Area. Alta disponibilidade e baixa latência, bem como alta taxa de transferência, são as métricas mais importantes.
O ambiente comercial de alto desempenho possui a maioria de seus componentes no farm de servidores do Data Center. Para minimizar a latência, os mecanismos de negociação algorítmica precisam estar localizados nas proximidades dos manipuladores de feeds, mecanismos FIX e sistemas de gerenciamento de pedidos. Um modelo de implantação alternativo tem os sistemas de negociação algorítmica localizados em uma troca ou um provedor de serviços com conectividade rápida para várias trocas.
Modelos de implantação.
Existem dois modelos de implantação para uma plataforma de negociação de alto desempenho. As empresas podem optar por ter uma mistura dos dois:
• Data Center da empresa de trading (Figura 2) - Este é o modelo tradicional, onde uma plataforma de negociação completa é desenvolvida e mantida pela empresa com links de comunicação para todas as plataformas de negociação. A latência varia com a velocidade dos links e o número de saltos entre a empresa e os locais.
Figura 2 Modelo de Implantação Tradicional.
• Co-location na plataforma de negociação (bolsas, prestadores de serviços financeiros (FSP)) (Figura 3)
A empresa comercial implanta sua plataforma de negociação automatizada o mais próximo possível dos locais de execução para minimizar a latência.
Figura 3 Modelo de Implantação Hospedada.
Arquitetura de Negociação Orientada a Serviços.
Estamos propondo uma estrutura orientada a serviços para a construção da arquitetura comercial de próxima geração. Essa abordagem fornece uma estrutura conceitual e um caminho de implementação com base na modularização e minimização de interdependências.
Essa estrutura fornece às empresas uma metodologia para:
• Avalie seu estado atual em termos de serviços.
• Priorizar serviços com base em seu valor para o negócio.
• Evolua a plataforma de negociação para o estado desejado usando uma abordagem modular.
A arquitetura de negociação de alto desempenho conta com os seguintes serviços, conforme definido pela estrutura de arquitetura de serviços representada na Figura 4.
Figura 4 Estrutura de Arquitetura de Serviço para Negociação de Alto Desempenho.
Tabela 1 Descrições e Tecnologias de Serviço.
Mensagens de latência ultra baixa.
Instrumentação - appliances, agentes de software e módulos roteadores.
Virtualização de SO e E / S, RDMA (Remote Direct Memory Access), TOE (TCP Offload Engines)
Middleware que paraleliza o processamento de aplicativos.
Middleware que acelera o acesso a dados para aplicativos, por exemplo, armazenamento em cache na memória.
Replicação multicast assistida por hardware através da rede; otimizações multicast Camada 2 e Camada 3.
Virtualização de hardware de armazenamento (VSANs), replicação de dados, backup remoto e virtualização de arquivos.
Resiliência comercial e mobilidade.
Balanceamento de carga local e local e redes de campus de alta disponibilidade.
Serviços de aplicativos de área ampla.
Aceleração de aplicativos em uma conexão WAN para comerciantes residindo fora do campus.
Serviço de cliente fino.
Desacoplamento dos recursos de computação dos terminais voltados para o usuário final.
Serviço de Mensagens de Latência Ultra-Baixa.
Esse serviço é fornecido pelo barramento de mensagens, que é um sistema de software que resolve o problema de conectar muitos-para-muitos aplicativos. O sistema consiste em:
• Um conjunto de esquemas de mensagens predefinidos.
• Um conjunto de mensagens de comando comuns.
• Uma infraestrutura de aplicativos compartilhados para enviar as mensagens para os destinatários. A infraestrutura compartilhada pode ser baseada em um intermediário de mensagem ou em um modelo de publicação / assinatura.
Os principais requisitos para o barramento de mensagens da próxima geração são (fonte 29West):
• menor latência possível (por exemplo, menos de 100 microssegundos)
• Estabilidade sob carga pesada (por exemplo, mais de 1,4 milhões de msg / segundo)
• Controle e flexibilidade (controle de taxa e transporte configurável)
Há esforços no setor para padronizar o barramento de mensagens. O AMQP (Advanced Message Queuing Protocol) é um exemplo de um padrão aberto promovido pelo J. P. Morgan Chase e apoiado por um grupo de fornecedores como Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West e iMatix. Dois dos principais objetivos são fornecer um caminho mais simples para a interoperabilidade de aplicativos escritos em plataformas diferentes e modularidade para que o middleware possa ser facilmente desenvolvido.
Em termos muito gerais, um servidor AMQP é análogo a um servidor de E-mail, com cada troca agindo como um agente de transferência de mensagens e cada fila de mensagens como uma caixa de correio. As ligações definem as tabelas de roteamento em cada agente de transferência. Os editores enviam mensagens para agentes de transferência individuais, que encaminham as mensagens para caixas de correio. Os consumidores recebem mensagens de caixas de correio, o que cria um modelo poderoso e flexível que é simples (fonte: amqp / tikiwiki / tiki-index. php? Page = OpenApproach # Why_AMQP_).
Serviço de Monitoramento de Latência.
Os principais requisitos para este serviço são:
• Granularidade de medidas de sub-milissegundos.
• Visibilidade em tempo quase real sem adicionar latência ao tráfego de negociação.
• Capacidade de diferenciar a latência do processamento de aplicativos da latência de trânsito da rede.
• Capacidade de lidar com altas taxas de mensagens.
• Fornecer uma interface programática para aplicativos de negociação para receber dados de latência, permitindo que os mecanismos de negociação algorítmica se adaptem às condições em constante mudança.
• Correlacionar eventos de rede com eventos do aplicativo para fins de solução de problemas.
A latência pode ser definida como o intervalo de tempo entre o momento em que uma ordem de negociação é enviada e quando a mesma ordem é reconhecida e aceita pela parte receptora.
Abordar a questão da latência é um problema complexo, exigindo uma abordagem holística que identifique todas as fontes de latência e aplique diferentes tecnologias em diferentes camadas do sistema.
A Figura 5 mostra a variedade de componentes que podem introduzir latência em cada camada da pilha OSI. Ele também mapeia cada fonte de latência com uma possível solução e uma solução de monitoramento. Essa abordagem em camadas pode oferecer às empresas uma maneira mais estruturada de atacar a questão da latência, em que cada componente pode ser considerado como um serviço e tratado de forma consistente em toda a empresa.
A manutenção de uma medida precisa do estado dinâmico desse intervalo de tempo em rotas e destinos alternativos pode ser de grande ajuda nas decisões de negociação tática. A capacidade de identificar a localização exata dos atrasos, seja na rede de borda do cliente, no hub de processamento central ou no nível do aplicativo de transação, determina significativamente a capacidade dos provedores de serviços de cumprir seus contratos de nível de serviço (SLAs). Para os formulários buy-side e sell-side, bem como para os sindicatos de dados de mercado, a rápida identificação e remoção de gargalos traduz-se diretamente em melhores oportunidades e receitas comerciais.
Figura 5 Arquitetura de Gerenciamento de Latência.
Ferramentas de monitoramento de baixa latência da Cisco.
As ferramentas tradicionais de monitoramento de rede operam com minutos ou segundos de granularidade. As plataformas de negociação da próxima geração, especialmente aquelas que suportam negociação algorítmica, exigem latências inferiores a 5 ms e níveis extremamente baixos de perda de pacotes. Em uma LAN Gigabit, uma microburst de 100 ms pode causar 10.000 transações a serem perdidas ou excessivamente atrasadas.
A Cisco oferece aos seus clientes uma variedade de ferramentas para medir a latência em um ambiente de negociação:
• Gerente de Qualidade de Largura de Banda (BQM) (OEM da Corvil)
• Solução de Monitoramento de Latência de Serviços Financeiros (FSMS) baseada em Cisco AON
Gerente de Qualidade de Largura de Banda.
O Bandwidth Quality Manager (BQM) 4.0 é um produto de gerenciamento de desempenho de aplicativos de rede de última geração que permite que os clientes monitorem e provisionem sua rede para níveis controlados de latência e desempenho de perda. Embora o BQM não seja voltado exclusivamente para redes comerciais, sua visibilidade em microssegundos combinada com recursos inteligentes de provisionamento de largura de banda o torna ideal para esses ambientes exigentes.
O Cisco BQM 4.0 implementa um amplo conjunto de tecnologias de medição de tráfego e análise de rede patenteadas e com patente pendente que proporcionam ao usuário visibilidade e compreensão sem precedentes de como otimizar a rede para obter o máximo desempenho do aplicativo.
O Cisco BQM agora é suportado na família de produtos do Cisco Application Deployment Engine (ADE). A família de produtos Cisco ADE é a plataforma escolhida para aplicativos de gerenciamento de rede da Cisco.
Benefícios do BQM.
A microvisualização do Cisco BQM é a capacidade de detectar, medir e analisar eventos de tráfego de latência, jitter e perda induzidos em níveis de microssegundos com granularidade por resolução de pacote. Isso permite que o Cisco BQM detecte e determine o impacto de eventos de tráfego na latência, instabilidade e perda da rede. É crítico para os ambientes de negociação que o BQM possa suportar medições de latência, perda e jitter unidirecionais para tráfego TCP e UDP (multicast). Isso significa que ele é relatado perfeitamente para tráfego de tráfego e feeds de dados de mercado.
O BQM permite que o usuário especifique um conjunto abrangente de limites (em relação à atividade de microburst, latência, perda, jitter, utilização, etc.) em todas as interfaces. Em seguida, o BQM opera uma captura de pacote de rolagem em segundo plano. Sempre que ocorre uma violação de limite ou outro evento de degradação de desempenho potencial, ele aciona o Cisco BQM para armazenar a captura de pacote no disco para análise posterior. Isso permite que o usuário examine detalhadamente tanto o tráfego do aplicativo que foi afetado pela degradação do desempenho (& quot; as vítimas & quot;) quanto o tráfego que causou a degradação do desempenho (& quot; os culpados & quot;). Isso pode reduzir significativamente o tempo gasto no diagnóstico e na solução de problemas de desempenho da rede.
O BQM também é capaz de fornecer recomendações detalhadas de provisionamento de políticas de largura de banda e qualidade de serviço (QoS), que o usuário pode aplicar diretamente para obter o desempenho de rede desejado.
Medidas de BQM ilustradas.
Para entender a diferença entre algumas das técnicas de medição mais convencionais e a visibilidade fornecida pelo BQM, podemos observar alguns gráficos de comparação. No primeiro conjunto de gráficos (Figura 6 e Figura 7), vemos a diferença entre a latência medida pelo Passive Network Quality Monitor (PNQM) do BQM e a latência medida pela injeção de pacotes de ping a cada 1 segundo no fluxo de tráfego.
Na Figura 6, vemos a latência relatada por pacotes de ping ICMP de 1 segundo para tráfego de rede real (ele é dividido por 2 para fornecer uma estimativa para o atraso unidirecional). Ele mostra o atraso confortavelmente abaixo de cerca de 5ms durante quase todo o tempo.
Figura 6 Latência reportada por pacotes de ping ICMP de 1 segundo para tráfego de rede real.
Na Figura 7, vemos a latência relatada pelo PNQM para o mesmo tráfego ao mesmo tempo. Aqui vemos que medindo a latência unidirecional dos pacotes de aplicativos reais, obtemos uma imagem radicalmente diferente. Aqui, a latência parece estar pairando em torno de 20 ms, com surtos ocasionais muito mais altos. A explicação é que, como o ping está enviando pacotes apenas a cada segundo, está faltando completamente a maior parte da latência de tráfego do aplicativo. Na verdade, os resultados do ping normalmente indicam apenas atraso de propagação de ida e volta em vez de latência de aplicativo realista na rede.
Figura 7 Latência Relatada pelo PNQM para o Real Network Traffic.
No segundo exemplo (Figura 8), vemos a diferença na carga reportada ou níveis de saturação entre uma visualização média de 5 minutos e uma visualização de microburst de 5 ms (o BQM pode reportar a exatidão de cerca de 10-100 nanossegundos em microbursts). A linha verde mostra que a média de utilização nas médias de 5 minutos é baixa, talvez até 5 Mbits / s. O gráfico azul escuro mostra a atividade de microburst de 5ms alcançando entre 75 Mbits / se 100 Mbits / s, a velocidade da LAN efetivamente. O BQM mostra esse nível de granularidade para todas as aplicações e também fornece regras de provisionamento claras para permitir que o usuário controle ou neutralize esses microbursts.
Figura 8 Diferença na carga de link reportada entre uma visualização média de 5 minutos e uma exibição de microssonda de 5 ms.
Implantação do BQM na Rede de Negociação.
A Figura 9 mostra uma implantação típica do BQM em uma rede de negociação.
Figura 9 Implantação típica do BQM em uma rede de negociação.
O BQM pode então ser usado para responder a esses tipos de perguntas:
• Algum dos meus principais links de LAN Gigabit está saturado por mais de X milissegundos? Isso está causando perda? Quais links seriam mais beneficiados com uma atualização para as velocidades Etherchannel ou 10 Gigabit?
• Qual tráfego de aplicativos está causando a saturação dos meus links de 1 Gigabit?
• Algum dos dados de mercado apresenta perda de ponta a ponta?
• Quanta latência adicional o data center de failover enfrenta? Este link é dimensionado corretamente para lidar com microbursts?
• Meus traders estão recebendo atualizações de baixa latência da camada de distribuição de dados de mercado? Eles estão vendo algum atraso maior que X milissegundos?
Ser capaz de responder a essas perguntas de maneira simples e eficaz economiza tempo e dinheiro na execução da rede de negociação.
O BQM é uma ferramenta essencial para ganhar visibilidade em dados de mercado e ambientes de negociação. Ele fornece medições granulares de latência de ponta a ponta em infraestruturas complexas que apresentam movimentação de dados de alto volume. Detectar efetivamente microbursts em níveis sub-milissegundos e receber análise especializada em um determinado evento é inestimável para os arquitetos de pregão. Recomendações de provisionamento de largura de banda inteligente, como dimensionamento e análise de hipóteses, proporcionam maior agilidade para responder às condições voláteis do mercado. À medida que a explosão do comércio algorítmico e o aumento das taxas de mensagens continua, o BQM, combinado com sua ferramenta de QoS, fornece a capacidade de implementar políticas de QoS que podem proteger aplicativos críticos de negociação.
Solução de monitoramento de latência de serviços financeiros da Cisco.
A Cisco e a Trading Metrics têm colaborado em soluções de monitoramento de latência para o fluxo de pedidos FIX e monitoramento de dados de mercado. A tecnologia Cisco AON é a base para uma nova classe de produtos e soluções incorporados em rede que ajudam a mesclar redes inteligentes com a infraestrutura de aplicativos, com base em arquiteturas orientadas a serviços ou tradicionais. A Trading Metrics é uma fornecedora líder de software analítico para fins de monitoramento de latência de infra-estrutura de rede e latência de aplicativos (tradingmetrics /).
A solução de monitoramento de latência de serviços financeiros (FSMS) da Cisco AON correlacionou dois tipos de eventos no ponto de observação:
• Eventos de rede correlacionados diretamente com o tratamento de mensagens de aplicativos coincidentes.
• Fluxo de pedidos comerciais e eventos de atualização de mercado correspondentes.
Usando a marcação de tempo declarada no momento da captura na rede, a análise em tempo real desses fluxos de dados correlatos permite a identificação precisa de gargalos na infraestrutura enquanto uma transação está sendo executada ou os dados de mercado estão sendo distribuídos. Ao monitorar e medir a latência no início do ciclo, as empresas financeiras podem tomar melhores decisões sobre qual serviço de rede - e qual intermediário, mercado ou contraparte - selecionar para rotear ordens de negociação. Da mesma forma, esse conhecimento permite acesso mais simplificado a dados de mercado atualizados (cotações de ações, notícias econômicas, etc.), que é uma base importante para iniciar, retirar ou buscar oportunidades de mercado.
Os componentes da solução são:
• hardware AON em três fatores de forma:
- Módulo de rede AON para roteadores Cisco 2600/2800/3700/3800.
- AON Blade para a série Cisco Catalyst 6500.
- Aparelho AON 8340.
• O software Trading Metrics M & amp; A 2.0, que fornece o aplicativo de monitoramento e alerta, exibe gráficos de latência em um painel e emite alertas quando ocorrem lentidões (tradingmetrics / TM_brochure. pdf).
Figura 10 Monitoramento de Latência FIX Baseado em AON.
SLA IP da Cisco.
O Cisco IP SLA é uma ferramenta de gerenciamento de rede incorporada no Cisco IOS que permite que roteadores e switches gerem fluxos de tráfego sintéticos que podem ser medidos quanto à latência, jitter, perda de pacotes e outros critérios (cisco / go / ipsla).
Dois conceitos principais são a origem do tráfego gerado e o destino. Ambas estas executam um endereço IP SLA "respondedor". que tem a responsabilidade de marcar o tempo do tráfego de controle antes de ser originado e devolvido pelo destino (para uma medida de ida e volta). Vários tipos de tráfego podem ser originados no IP SLA e são direcionados a métricas diferentes e a diferentes serviços e aplicativos. A operação de jitter UDP é usada para medir atrasos unidirecionais e ida e volta e reportar variações. Como o tempo do tráfego é estampado nos dispositivos de envio e destino usando o recurso de resposta, o atraso de ida e volta é caracterizado como o delta entre os dois registros de data e hora.
Um novo recurso foi introduzido no IOS 12.3 (14) T, no IP SLA Sub Millisecond Reporting, que permite que os timestamps sejam exibidos com uma resolução em microssegundos, fornecendo assim um nível de granularidade não disponível anteriormente. Esse novo recurso tornou o IP SLA relevante para as redes do campus onde a latência da rede está normalmente na faixa de 300 a 800 microssegundos e a capacidade de detectar tendências e picos (tendências breves) com base em contadores de granularidade de microssegundos é um requisito para os clientes envolvidos no tempo ambientes de negociação eletrônicos sensíveis.
Como resultado, o IP SLA agora está sendo considerado por um número significativo de organizações financeiras, já que todas elas enfrentam requisitos para:
• Relate a latência da linha de base para seus usuários.
• Tendência da latência da linha de base ao longo do tempo.
• Responda rapidamente a explosões de tráfego que causam alterações na latência relatada.
Relatórios de sub-milissegundos são necessários para esses clientes, uma vez que muitos campus e backbones estão entregando atualmente com um segundo de latência em vários saltos de switch. Ambientes de negociação eletrônica geralmente trabalham para eliminar ou minimizar todas as áreas de dispositivos e latência de rede para oferecer um atendimento rápido aos negócios. Relatando que os tempos de resposta da rede são "pouco abaixo de um milissegundo" não é mais suficiente; A granularidade das medições de latência relatadas em um segmento de rede ou backbone precisa estar mais próxima de 300-800 microssegundos com um grau de resolução de 100 & igrave; segundos.
O IP SLA recentemente adicionou suporte a fluxos de teste de multicast IP, que podem medir a latência de dados de mercado.
Uma topologia de rede típica é mostrada na Figura 11 com os roteadores, as fontes e os respondedores de sombra IP SLA.
Figura 11 Implantação do IP SLA.
Serviços de computação.
Os serviços de computação cobrem uma ampla gama de tecnologias com o objetivo de eliminar gargalos de memória e CPU criados pelo processamento de pacotes de rede. Os aplicativos comerciais consomem grandes volumes de dados de mercado e os servidores precisam dedicar recursos ao processamento do tráfego de rede, em vez do processamento de aplicativos.
• Processamento de transporte - Em altas velocidades, o processamento de pacotes de rede pode consumir uma quantidade significativa de ciclos e memória de CPU do servidor. Uma regra prática estabelecida indica que 1 Gbps de largura de banda de rede requer 1 GHz de capacidade de processador (fonte do white paper Intel sobre aceleração de E / S intel / technology / ioacceleration / 306517.pdf).
• Cópia de buffer intermediário - Em uma implementação de pilha de rede convencional, os dados precisam ser copiados pela CPU entre buffers de rede e buffers de aplicativo. Essa sobrecarga é agravada pelo fato de que as velocidades de memória não acompanharam os aumentos nas velocidades da CPU. Por exemplo, processadores como o Intel Xeon estão se aproximando de 4 GHz, enquanto os chips de RAM estão em torno de 400 MHz (para memórias DDR 3200) (fonte Intel intel / technology / ioacceleration / 306517.pdf).
• Comutação de contexto - Toda vez que um pacote individual precisa ser processado, a CPU executa uma alternância de contexto do contexto de aplicativo para o contexto de tráfego de rede. Essa sobrecarga poderia ser reduzida se a opção ocorresse somente quando todo o buffer de aplicativo estivesse completo.
Figura 12 Fontes de Sobrecarga nos Servidores do Data Center.
• TCP Offload Engine (TOE) - Transfere os ciclos do processador de transporte para a NIC. Move as cópias do buffer da pilha do protocolo TCP / IP da memória do sistema para a memória NIC.
• Acesso Direto à Memória Remota (RDMA) - permite que um adaptador de rede transfira dados diretamente de um aplicativo para outro, sem envolver o sistema operacional. Elimina cópias intermediárias e de buffer de aplicativos (consumo de largura de banda de memória).
• Bypass do kernel - acesso direto em nível de usuário ao hardware. Reduz drasticamente os parâmetros de contexto do aplicativo.
Figura 13 RDMA e Kernel Bypass.
O InfiniBand é um link de comunicação serial bidirecional ponto-a-ponto (comutação de malha) que implementa o RDMA, entre outros recursos. A Cisco oferece um comutador InfiniBand, o Server Fabric Switch (SFS): cisco / application / pdf / pt / us / guest / netsol / ns500 / c643 / cdccont_0900aecd804c35cb. pdf.
Figura 14 Implantação típica do SFS.
Os aplicativos comerciais se beneficiam da redução na latência e variabilidade de latência, conforme comprovado por um teste realizado com o Cisco SFS e Wombat Feed Handlers da Stac Research:
Serviço de virtualização de aplicativos.
O desacoplamento do aplicativo do sistema operacional subjacente e do hardware do servidor permite que eles sejam executados como serviços de rede. Um aplicativo pode ser executado em paralelo em vários servidores ou vários aplicativos podem ser executados no mesmo servidor, conforme dita a melhor alocação de recursos. Esse desacoplamento permite melhor balanceamento de carga e recuperação de desastres para estratégias de continuidade de negócios. O processo de realocação de recursos de computação para um aplicativo é dinâmico. Usando um sistema de virtualização de aplicativos como o GridServer do Data Synapse, os aplicativos podem migrar, usando políticas pré-configuradas, para servidores subutilizados em um processo de suprimento-correspondência-demanda (networkworld / supp / 2005 / ndc1 / 022105virtual. html? Page = 2) .
Existem muitas vantagens comerciais para as empresas financeiras que adotam a virtualização de aplicativos:
• Maior rapidez no lançamento de novos produtos e serviços no mercado.
• Integração mais rápida de empresas após atividades de fusões e aquisições.
• Maior disponibilidade de aplicativos.
• Melhor distribuição da carga de trabalho, que cria mais & quot; head room & quot; para processamento de picos no volume de negociação.
• Eficiência operacional e controle.
• Reduction in IT complexity.
Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it.
Data Virtualization Service.
To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday/03/0210/101061.html).
This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartner/DisplayDocument? ref=g_search&id=500947). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation.
One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Today's data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limits—they have been developed without the WAN in mind.
Figure 15 GemStone GemFire Distributed Caching.
Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster.
Multicast Service.
Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth.
IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two servers—one primary and one backup for redundancy.
There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerage's network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center.
The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization.
Figure 16 Market Data Distribution Players.
The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco.
A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders.
Figure 17 Market Data Architecture.
Design Issues.
Number of Groups/Channels to Use.
Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message.
In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returns—there is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets.
Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically:
Another example is the Nasdaq Totalview service, broken up this way:
This approach allows for straight forward network/application management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user.
In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient.
Intermittent Sources.
A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created.
PIM-Bidir or PIM-SSM.
The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications.
Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path.
Intermittent sources are not an issue with PIM-Bidir and PIM-SSM.
Null Packets.
In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems.
Periodic Keepalives or Heartbeats.
An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires.
S, G Expiry Timer.
Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed.
RTCP Feedback.
A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided.
Fast Producers and Slow Consumers.
Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle.
The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application.
Tibco Heartbeats.
TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions.
Multicast Forwarding Options.
PIM Sparse Mode.
The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage.
There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections.
The main components of the PIM-SM implementation are:
• PIM Sparse Mode v2.
• Shared Tree (spt-threshold infinity)
A design option in the brokerage or in the exchange.
Details of Anycast RP can be found in:
The classic high availability design for Tibco in the brokerage network is documented in:
Bidirectional PIM.
PIM-Bidir is an optimization of PIM Sparse Mode for many-to-many applications. It has several key advantages over a PIM-SM deployment:
• Better support for intermittent sources.
• No data-triggered events.
One of the weaknesses of PIM-SM is that the network continually needs to react to active data flows. This can cause non-deterministic behavior that may be hard to troubleshoot. PIM-Bidir has the following major protocol differences over PIM-SM:
– No source registration.
Source traffic is automatically sent to the RP and then down to the interested receivers. There is no unicast encapsulation, PIM joins from the RP to the first hop router and then registration stop messages.
All PIM-Bidir traffic is forwarded on a *,G forwarding entry. The router does not have to monitor the traffic flow on a *,G and then send joins when the traffic passes a threshold.
– No need for an actual RP.
The RP does not have an actual protocol function in PIM-Bidir. The RP acts as a routing vector in which all the traffic converges. The RP can be configured as an address that is not assigned to any particular device. This is called a Phantom RP.
– No need for MSDP.
MSDP provides source information between RPs in a PIM-SM network. PIM-Bidir does not use the active source information for any forwarding decisions and therefore MSDP is not required.
Bidirectional PIM is ideally suited for the brokerage network in the data center of the exchange. In this environment there are many sources sending to a relatively few set of groups in a many-to-many traffic pattern.
The key components of the PIM-Bidir implementation are:
Further details about Phantom RP and basic PIM-Bidir design are documented in:
Source Specific Multicast.
PIM-SSM is an optimization of PIM Sparse Mode for one-to-many applications. In certain environments it can offer several distinct advantages over PIM-SM. Like PIM-Bidir, PIM-SSM does not rely on any data-triggered events. Furthermore, PIM-SSM does not require an RP at all—there is no such concept in PIM-SSM. The forwarding information in the network is completely controlled by the interest of the receivers.
Source Specific Multicast is ideally suited for market data delivery in the financial service provider. The FSP can receive the feeds from the exchanges and then route them to the end of their network.
Many FSPs are also implementing MPLS and Multicast VPNs in their core. PIM-SSM is the preferred method for transporting traffic in VRFs.
When PIM-SSM is deployed all the way to the end user, the receiver indicates his interest in a particular S, G with IGMPv3. Even though IGMPv3 was defined by RFC 2236 back in October, 2002, it still has not been implemented by all edge devices. This creates a challenge for deploying an end-to-end PIM-SSM service. A transitional solution has been developed by Cisco to enable an edge device that supports IGMPv2 to participate in an PIM-SSM service. This feature is called SSM Mapping and is documented in:
Storage Services.
The service provides storage capabilities into the market data and trading environments. Trading applications access backend storage to connect to different databases and other repositories consisting of portfolios, trade settlements, compliance data, management applications, Enterprise Service Bus (ESB), and other critical applications where reliability and security is critical to the success of the business. The main requirements for the service are:
Storage virtualization is an enabling technology that simplifies management of complex infrastructures, enables non-disruptive operations, and facilitates critical elements of a proactive information lifecycle management (ILM) strategy. EMC Invista running on the Cisco MDS 9000 enables heterogeneous storage pooling and dynamic storage provisioning, allowing allocation of any storage to any application. High availability is increased with seamless data migration. Appropriate class of storage is allocated to point-in-time copies (clones). Storage virtualization is also leveraged through the use of Virtual Storage Area Networks (VSANs), which enable the consolidation of multiple isolated SANs onto a single physical SAN infrastructure, while still partitioning them as completely separate logical entities. VSANs provide all the security and fabric services of traditional SANs, yet give organizations the flexibility to easily move resources from one VSAN to another. This results in increased disk and network utilization while driving down the cost of management. Integrated Inter VSAN Routing (IVR) enables sharing of common resources across VSANs.
Figure 18 High Performance Computing Storage.
Replication of data to a secondary and tertiary data center is crucial for business continuance. Replication offsite over Fiber Channel over IP (FCIP) coupled with write acceleration and tape acceleration provides improved performance over long distance. Continuous Data Replication (CDP) is another mechanism which is gaining popularity in the industry. It refers to backup of computer data by automatically saving a copy of every change made to that data, essentially capturing every version of the data that the user saves. It allows the user or administrator to restore data to any point in time. Solutions from EMC and Incipient utilize the SANTap protocol on the Storage Services Module (SSM) in the MDS platform to provide CDP functionality. The SSM uses the SANTap service to intercept and redirect a copy of a write between a given initiator and target. The appliance does not reside in the data path—it is completely passive. The CDP solutions typically leverage a history journal that tracks all changes and bookmarks that identify application-specific events. This ensures that data at any point in time is fully self-consistent and is recoverable instantly in the event of a site failure.
Backup procedure reliability and performance are extremely important when storing critical financial data to a SAN. The use of expensive media servers to move data from disk to tape devices can be cumbersome. Network-accelerated serverless backup (NASB) helps you back up increased amounts of data in shorter backup time frames by shifting the data movement from multiple backup servers to Cisco MDS 9000 Series multilayer switches. This technology decreases impact on application servers because the MDS offloads the application and backup servers. It also reduces the number of backup and media servers required, thus reducing CAPEX and OPEX. The flexibility of the backup environment increases because storage and tape drives can reside anywhere on the SAN.
Trading Resilience and Mobility.
The main requirements for this service are to provide the virtual trader:
• Fully scalable and redundant campus trading environment.
• Resilient server load balancing and high availability in analytic server farms.
• Global site load balancing that provide the capability to continue participating in the market venues of closest proximity.
A highly-available campus environment is capable of sustaining multiple failures (i. e., links, switches, modules, etc.), which provides non-disruptive access to trading systems for traders and market data feeds. Fine-tuned routing protocol timers, in conjunction with mechanisms such as NSF/SSO, provide subsecond recovery from any failure.
The high-speed interconnect between data centers can be DWDM/dark fiber, which provides business continuance in case of a site failure. Each site is 100km-200km apart, allowing synchronous data replication. Usually the distance for synchronous data replication is 100km, but with Read/Write Acceleration it can stretch to 200km. A tertiary data center can be greater than 200km away, which would replicate data in an asynchronous fashion.
Figure 19 Trading Resilience.
A robust server load balancing solution is required for order routing, algorithmic trading, risk analysis, and other services to offer continuous access to clients regardless of a server failure. Multiple servers encompass a "farm" and these hosts can added/removed without disruption since they reside behind a virtual IP (VIP) address which is announced in the network.
A global site load balancing solution provides remote traders the resiliency to access trading environments which are closer to their location. This minimizes latency for execution times since requests are always routed to the nearest venue.
Figure 20 Virtualization of Trading Environment.
A trading environment can be virtualized to provide segmentation and resiliency in complex architectures. Figure 20 illustrates a high-level topology depicting multiple market data feeds entering the environment, whereby each vendor is assigned its own Virtual Routing and Forwarding (VRF) instance. The market data is transferred to a high-speed InfiniBand low-latency compute fabric where feed handlers, order routing systems, and algorithmic trading systems reside. All storage is accessed via a SAN and is also virtualized with VSANs, allowing further security and segmentation. The normalized data from the compute fabric is transferred to the campus trading environment where the trading desks reside.
Wide Area Application Services.
This service provides application acceleration and optimization capabilities for traders who are located outside of the core trading floor facility/data center and working from a remote office. To consolidate servers and increase security in remote offices, file servers, NAS filers, storage arrays, and tape drives are moved to a corporate data center to increase security and regulatory compliance and facilitate centralized storage and archival management. As the traditional trading floor is becoming more virtual, wide area application services technology is being utilized to provide a "LAN-like" experience to remote traders when they access resources at the corporate site. Traders often utilize Microsoft Office applications, especially Excel in addition to Sharepoint and Exchange. Excel is used heavily for modeling and permutations where sometime only small portions of the file are changed. CIFS protocol is notoriously known to be "chatty," where several message normally traverse the WAN for a simple file operation and it is addressed by Wide Area Application Service (WAAS) technology. Bloomberg and Reuters applications are also very popular financial tools which access a centralized SAN or NAS filer to retrieve critical data which is fused together before represented to a trader's screen.
Figure 21 Wide Area Optimization.
A pair of Wide Area Application Engines (WAEs) that reside in the remote office and the data center provide local object caching to increase application performance. The remote office WAEs can be a module in the ISR router or a stand-alone appliance. The data center WAE devices are load balanced behind an Application Control Engine module installed in a pair of Catalyst 6500 series switches at the aggregation layer. The WAE appliance farm is represented by a virtual IP address. The local router in each site utilizes Web Cache Communication Protocol version 2 (WCCP v2) to redirect traffic to the WAE that intercepts the traffic and determines if there is a cache hit or miss. The content is served locally from the engine if it resides in cache; otherwise the request is sent across the WAN the initial time to retrieve the object. This methodology optimizes the trader experience by removing application latency and shielding the individual from any congestion in the WAN.
WAAS uses the following technologies to provide application acceleration:
• Data Redundancy Elimination (DRE) is an advanced form of network compression which allows the WAE to maintain a history of previously-seen TCP message traffic for the purposes of reducing redundancy found in network traffic. This combined with the Lempel-Ziv (LZ) compression algorithm reduces the number of redundant packets that traverse the WAN, which improves application transaction performance and conserves bandwidth.
• Transport Flow Optimization (TFO) employs a robust TCP proxy to safely optimize TCP at the WAE device by applying TCP-compliant optimizations to shield the clients and servers from poor TCP behavior because of WAN conditions. By running a TCP proxy between the devices and leveraging an optimized TCP stack between the devices, many of the problems that occur in the WAN are completely blocked from propagating back to trader desktops. The traders experience LAN-like TCP response times and behavior because the WAE is terminating TCP locally. TFO improves reliability and throughput through increases in TCP window scaling and sizing enhancements in addition to superior congestion management.
Thin Client Service.
This service provides a "thin" advanced trading desktop which delivers significant advantages to demanding trading floor environments requiring continuous growth in compute power. As financial institutions race to provide the best trade executions for their clients, traders are utilizing several simultaneous critical applications that facilitate complex transactions. It is not uncommon to find three or more workstations and monitors at a trader's desk which provide visibility into market liquidity, trading venues, news, analysis of complex portfolio simulations, and other financial tools. In addition, market dynamics continue to evolve with Direct Market Access (DMA), ECNs, alternative trading volumes, and upcoming regulation changes with Regulation National Market System (RegNMS) in the US and Markets in Financial Instruments Directive (MiFID) in Europe. At the same time, business seeks greater control, improved ROI, and additional flexibility, which creates greater demands on trading floor infrastructures.
Traders no longer require multiple workstations at their desk. Thin clients consist of keyboard, mouse, and multi-displays which provide a total trader desktop solution without compromising security. Hewlett Packard, Citrix, Desktone, Wyse, and other vendors provide thin client solutions to capitalize on the virtual desktop paradigm. Thin clients de-couple the user-facing hardware from the processing hardware, thus enabling IT to grow the processing power without changing anything on the end user side. The workstation computing power is stored in the data center on blade workstations, which provide greater scalability, increased data security, improved business continuance across multiple sites, and reduction in OPEX by removing the need to manage individual workstations on the trading floor. One blade workstation can be dedicated to a trader or shared among multiple traders depending on the requirements for computer power.
The "thin client" solution is optimized to work in a campus LAN environment, but can also extend the benefits to traders in remote locations. Latency is always a concern when there is a WAN interconnecting the blade workstation and thin client devices. The network connection needs to be sized accordingly so traffic is not dropped if saturation points exist in the WAN topology. WAN Quality of Service (QoS) should prioritize sensitive traffic. There are some guidelines which should be followed to allow for an optimized user experience. A typical highly-interactive desktop experience requires a client-to-blade round trip latency of <20ms for a 2Kb packet size. There may be a slight lag in display if network latency is between 20ms to 40ms. A typical trader desk with a four multi-display terminal requires 2-3Mbps bandwidth consumption with seamless communication with blade workstation(s) in the data center. Streaming video (800x600 at 24fps/full color) requires 9 Mbps bandwidth usage.
Figure 22 Thin Client Architecture.
Management of a large thin client environment is simplified since a centralized IT staff manages all of the blade workstations dispersed across multiple data centers. A trader is redirected to the most available environment in the enterprise in the event of a particular site failure. High availability is a key concern in critical financial environments and the Blade Workstation design provides rapid provisioning of another blade workstation in the data center. This resiliency provides greater uptime, increases in productivity, and OpEx reduction.
Advanced Encryption Standard.
Advanced Message Queueing Protocol.
Application Oriented Networking.
The Archipelago® Integrated Web book gives investors the unique opportunity to view the entire ArcaEx and ArcaEdge books in addition to books made available by other market participants.
ECN Order Book feed available via NASDAQ.
Chicago Board of Trade.
Class-Based Weighted Fair Queueing.
Continuous Data Replication.
Chicago Mercantile Exchange is engaged in trading of futures contracts and derivatives.
Central Processing Unit.
Distributed Defect Tracking System.
Acesso Direto ao Mercado.
Data Redundancy Elimination.
Dense Wavelength Division Multiplexing.
Rede de Comunicação Eletrônica.
Enterprise Service Bus.
Enterprise Solutions Engineering.
FIX Adapted for Streaming.
Fibre Channel over IP.
Financial Information Exchange.
Financial Services Latency Monitoring Solution.
Financial Service Provider.
Information Lifecycle Management.
Instinet Island Book.
Internetworking Operating System.
Keyboard Video Mouse.
Low Latency Queueing.
Metro Area Network.
Multilayer Director Switch.
Directiva relativa aos mercados de instrumentos financeiros.
Message Passing Interface is an industry standard specifying a library of functions to enable the passing of messages between nodes within a parallel computing environment.
Network Attached Storage.
Network Accelerated Serverless Backup.
Network Interface Card.
Nasdaq Quotation Dissemination Service.
Order Management System.
Open Systems Interconnection.
Protocol Independent Multicast.
PIM-Source Specific Multicast.
Qualidade de serviço.
Random Access Memory.
Reuters Data Feed.
Reuters Data Feed Direct.
Remote Direct Memory Access.
Regulation National Market System.
Remote Graphics Software.
Reuters Market Data System.
RTP Control Protocol.
Real Time Protocol.
Reuters Wire Format.
Storage Area Network.
Small Computer System Interface.
Sockets Direct Protocol—Given that many modern applications are written using the sockets API, SDP can intercept the sockets at the kernel level and map these socket calls to an InfiniBand transport service that uses RDMA operations to offload data movement from the CPU to the HCA hardware.
Server Fabric Switch.
Secure Financial Transaction Infrastructure network developed to provide firms with excellent communication paths to NYSE Group, AMEX, Chicago Stock Exchange, NASDAQ, and other exchanges. It is often used for order routing.

Requisitos do Sistema de Negociação Algorítmica.
Atualmente estou fazendo uma aula sobre arquiteturas de software. Para essa classe, cada aluno escolhe um sistema, define seus requisitos de arquitetura e projeta uma solução capaz de atender a esses requisitos. Eu escolhi um sistema de negociação algorítmica por causa do desafio tecnológico e porque eu amo os mercados financeiros. Os sistemas de negociação algorítmica (ATs) usam algoritmos computacionais para tomar decisões comerciais, enviar pedidos e gerenciar pedidos após o envio. Nos últimos anos, os ATs ganharam popularidade e agora respondem pela maioria dos negócios realizados em bolsas internacionais. Distinção é feita entre negociação programada e negociação algorítmica. O comércio programado envolve dividir os grandes pedidos de mercado em pacotes de ações menores. Neste artigo, a negociação programada é considerada um requisito de segurança de um ATs.
Introdução aos sistemas de negociação algorítmica.
Falando em geral, existem cinco tipos de participantes do mercado: investidores de varejo, comerciantes proprietários, criadores de mercado, instituições de compra e instituições de venda. Os ATs são mais usados ​​por instituições proprietárias de buy-side, mas essa dinâmica está mudando. O comércio algorítmico como um serviço (ATAAS) torna o comércio algorítmico acessível ao investidor de varejo (consulte o apêndice). Este artigo descreve os requisitos de arquitetura para um ATs usado por uma instituição proprietária de compradores. No nível mais alto, um AT tem três funções: tomar decisões comerciais, criar ordens de negociação e gerenciar esses pedidos após o envio. Abaixo destes, há uma série de requisitos funcionais mais detalhados, alguns dos quais podem ser satisfeitos pela arquitetura.
Introdução à arquitetura de software.
Muito debate ainda envolve a definição do que é uma arquitetura de software. No contexto deste artigo, a arquitetura de software é definida como a infraestrutura na qual os componentes do aplicativo que fornecem a funcionalidade do usuário podem ser especificados, implementados e executados. Um sistema de software deve satisfazer seus requisitos funcionais e não funcionais. Os requisitos funcionais especificam as funções dos componentes dos sistemas. Requisitos não funcionais especificam medidas pelas quais o desempenho do sistema é medido. Um sistema de software que satisfaz os seus requisitos funcionais pode ainda não corresponder às expectativas do utilizador, e. um ATs que pode submeter negociações, mas não em tempo hábil, causaria perdas financeiras. A arquitetura de software basicamente fornece uma infra-estrutura que satisfaz os requisitos não funcionais e dentro da qual os componentes que atendem aos requisitos funcionais podem ser implantados e executados. Os requisitos do sistema de negociação algorítmica podem, portanto, ser amplamente divididos em requisitos funcionais e não funcionais.
Requisitos funcionais.
Abaixo do requisito de nível superior 'tomar decisões comerciais', há três requisitos de alto nível:
Obtenha dados de mercado - baixe, filtre e armazene dados estruturados e não estruturados. Dados estruturados incluem dados de mercado em tempo real da Reuters ou da Bloomberg transmitidos usando um protocolo, e. CONSERTAR. Dados não estruturados incluem notícias e dados de mídia social. Defina a estratégia de negociação - especifique novas regras e estratégias de negociação. Regra de negociação consiste em um indicador, uma desigualdade e um valor numérico, e. "Relação PE" & lt; 10. As regras de negociação são estruturadas em uma árvore de decisão para definir uma estratégia de negociação (ilustrada abaixo). Analise os valores mobiliários em relação à estratégia de negociação - para cada título, obtenha dados e filtre-os através da estratégia de negociação para determinar qual segurança comprar. Além disso: para cada posição aberta, determine qual segurança vender. Nota: este requisito pode variar.
Abaixo do requisito de nível superior "criar ordens de negociação", há dois requisitos de alto nível:
Obter informações comerciais - para cada decisão, obter o símbolo de segurança, preço, quantidade, etc. Criar ordem de negociação - para cada decisão, especificar um tipo de pedido e adicionar informações comerciais. Existem seis tipos de pedidos: longo, curto, mercado, limite, parada e condicional.
Abaixo do requisito de nível superior "gerenciar pedidos", há três requisitos de alto nível:
Gerenciar pedidos pendentes - para cada pedido, validar e confirmar esse pedido Rotear / enviar pedidos - rotear cada pedido para uma bolsa, dark pool ou corretora Gerenciar pedidos enviados - acompanhar o status de cada pedido enviado, se o pedido for correspondido, criar uma posição aberta . Se a ordem não for correspondida, interrompa o pedido.
Este diagrama mostra como uma estratégia de negociação pode ser definida como uma árvore de decisão das regras de negociação.
Requisitos não Funcionais.
Existem muitos requisitos não funcionais que são trocados entre si, e. O aumento do desempenho geralmente resulta em um aumento no custo total de propriedade. Os requisitos do sistema de negociação algorítmica não funcional incluem,
Escalabilidade - é a capacidade de um sistema para lidar e executar sob uma carga de trabalho aumentada ou em expansão. Os ATs devem ser escalonáveis ​​em relação ao número de feeds de dados em processos, número de trocas nas quais negocia e os valores mobiliários que podem ser negociados. Desempenho - é a quantidade de trabalho realizado por um sistema comparado ao tempo e recursos necessários para realizar esse trabalho. Os ATs devem ter tempos de resposta rápidos (de volta ao mercado) e alto processamento e taxa de transferência de rede. Modificabilidade - é a facilidade com que o sistema pode ser alterado. Um AT deve ter estratégias de negociação e processamento de dados facilmente modificáveis ​​Confiabilidade - é a precisão e confiabilidade de um sistema para produzir saídas corretas para os insumos que recebe. Como erros e erros em um ATs podem resultar em enormes perdas e multas, a confiabilidade é crucial. Veja o desastre capital do Cavaleiro para obter evidências disso. Auditoria - é a facilidade com que o sistema pode ser auditado. Casos recentes e de grande repercussão de ATs descontrolados colocaram as ATs no centro das atenções das empresas de auditoria. Eles devem, portanto, ser auditáveis ​​tanto do ponto de vista financeiro, de conformidade e de TI. Segurança - é a segurança de uma organização contra atividades criminosas, como terrorismo, roubo ou espionagem. Como as estratégias de negociação são proprietárias e representam uma propriedade intelectual valiosa, elas devem ser protegidas. Além disso, para proteger os ATs da caça, as ordens devem ser ofuscadas usando estratégias de negociação programadas. Tolerância a falhas - é a capacidade de um sistema continuar operando corretamente após uma falha ou falha. Isso é semelhante à confiabilidade, exceto pelo fato de que os ATs devem continuar sendo confiáveis ​​mesmo após uma falha, para evitar perdas financeiras. Interoperabilidade - é a facilidade com que o sistema é capaz de operar com uma gama diversificada de sistemas relacionados. Isso é importante para as ATs que podem ser necessárias para interagir com sistemas de gerenciamento de pedidos, sistemas de gerenciamento de portfólio, sistemas de gerenciamento de risco, sistemas contábeis e até mesmo sistemas bancários.
Visão geral do escopo arquitetônico.
O escopo arquitetônico é o conjunto de serviços suportados pela arquitetura que são consumidos pelos componentes para atender aos seus requisitos funcionais e não funcionais. Uma análise mais detalhada desse escopo arquitetônico está disponível no documento de requisitos detalhados. Em um nível alto, os seguintes serviços precisariam ser fornecidos pela arquitetura:
Um ambiente de pré-processamento de dados modificável - que suporta vários fluxos de dados, filtros para dados irrelevantes e particionamento de dados temporais Um ambiente de processamento distribuído - que suporta várias unidades de processamento (clusters), monitoramento de desempenho em tempo real, uma estrutura de comunicação orientada por mensagens de conjuntos de dados temporais, balanceamento de carga e replicação de dados Unidades de processamento individuais - que suportam filas na memória e processamento de eventos complexos (em dados temporais) Uma rede de área de armazenamento (SAN) - que suporta agregação de dados temporais, consultas contínuas e registro (para trilhas de auditoria) Um ambiente de recuperação de dados (DR) - replica a SAN e o sistema de gerenciamento de pedidos Um ambiente de integração - que expõe uma API padrão para componentes e conecta componentes internos e externos uns aos outros Um sistema de gerenciamento de pedidos - que suporta fluxos de entrada simultâneos , redundância passiva e balanceamento de carga, critérios ACID em pedidos, uma trilha de auditoria, e é repli Um ambiente de uso do sistema - que suporta vários perfis de usuário e expõe um front-end totalmente gerenciado ao sistema de negociação algorítmica.
Requisitos de acesso e integração.
Os requisitos de acesso descrevem maneiras pelas quais os usuários podem acessar os componentes do sistema. Um sistema de negociação algorítmica deve expor três interfaces: uma interface para definir novas regras de negociação, estratégias de negociação e fontes de dados; uma interface de back-end para os administradores do sistema adicionar clusters e configurar a arquitetura; e uma interface de auditoria somente leitura para verificar os controles de TI e os direitos de acesso do usuário. Pré-requisitos para a integração entre componentes e sistemas externos são chamados de requisitos de integração. O sistema de negociação algorítmica deve suportar integração baseada em arquivo, integração baseada em mensagem e integração de banco de dados. Como tal, os seguintes requisitos devem ser satisfeitos pela arquitetura:
Integração com banco de dados - suporta integração baseada em arquivos ODBC, JDBC, ADO e XQC - suporta arquivos CSV, XML e JSON Integração baseada em mensagens - suporta FIX, FAST e FIXatdl.
Restrições arquitetônicas.
Os pontos azuis mostram os locais físicos onde a latência da rede é minimizada e os pontos vermelhos mostram os locais físicos das grandes trocas financeiras. Para maximizar o desempenho do sistema de negociação algorítmica, deve-se alojar o sistema em locais que minimizem a latência da rede. Fonte: MIT open press: dspace. mit. edu/handle/1721.1/6285.
Restrições arquitetônicas são fatores que restringem o desempenho da arquitetura que está sendo construída. As duas restrições que mencionarei aqui são restrições de rede física e restrições regulamentares. Restrições físicas de rede são colocadas em um sistema como resultado de redes de telecomunicações deficientes. Para atenuar essa restrição, o sistema deve ser construído onde a latência da rede é minimizada. Outra maneira de mitigar as restrições de rede é colocar o sistema de negociação algorítmico na troca de mercado. Dito isto, a decisão de co-localização introduz restrições adicionais de processamento e espaço.
As restrições regulatórias são introduzidas por meio de leis e regulamentos, que são, na maioria, específicos do país e do intercâmbio. Esse é um fator cada vez mais importante no design e na implementação de um sistema de negociação algorítmico, porque o comércio algorítmico está se tornando mais regulado após a falha do flash de 2010. Em geral, os ATs devem cumprir pelo menos as regras da SEC relativas à conformidade e integridade do sistema (SCI), as diretrizes da EMEA para sistemas de negociação algorítmica, as normas de negociação algorítmica ISO 9000 (AT9000) e as normas internacionais de relatórios financeiros (IFRS). .
Conclusão.
As arquiteturas de sistema de comércio algorítmico são complicadas pelos requisitos estritamente não funcionais esperados do sistema e pela ampla gama de requisitos regulatórios e de conformidade que governam a negociação automatizada. Devido a essas complexidades, deve-se considerar cuidadosamente o projeto e a implementação da arquitetura do sistema. Ao projetar uma arquitetura de negociação algorítmica de código aberto, espero destacar os requisitos de arquitetura que são frequentemente negligenciados no início do design de tais sistemas. Os requisitos identificados neste documento provavelmente não estarão completos e inevitavelmente evoluirão com o tempo. A segunda parte deste artigo incluirá meu design para uma arquitetura de software que atenda aos requisitos mencionados acima. Para mais informações sobre negociação algorítmica, sinta-se à vontade para entrar em contato comigo.
Para baixar uma cópia do meu relatório, clique aqui. Para uma lista completa de fontes, consulte o relatório.
Os provedores de serviços da ATAAS incluem, mas não estão limitados a:
Quantopian - os usuários definem estratégias quantitativas de negociação no Python e podem fazer o back-test deles. Os usuários também podem executar essas estratégias nos mercados ao vivo. A Quantopian recebeu recentemente um investimento de 6,7 milhões de dólares para ampliar seus serviços. EquaMetrics - o uso de usuários RIZM cria visualmente novas estratégias de negociação algorítmica, testa essas estratégias e executa essas estratégias em mercados ativos. A EquaMetrics anunciou recentemente um novo financiamento para o RIZM avaliado em 4,5 milhões de dólares. Corretoras - algumas corretoras permitem que os operadores criem robôs de negociação que executam automaticamente suas estratégias de negociação.
História anterior
Previsão Econômica do BRIC usando Redes Neurais.
Próxima história.
Arquitetura do Sistema de Negociação Algorítmica.
Envie um comentário.
Cancelar resposta.
Siga Turing Finance.
Turing Finance Mailing List.
Amigos da Turing Finance.
A Quantocracia é o melhor agregador de blogs de finanças quantitativas com links para novas análises publicadas todos os dias.
NMRQL é o fundo de hedge quantitativo do qual faço parte. Usamos o aprendizado de máquina para tentar vencer o mercado.

Electronic trading system architecture


negociação eletrônica de renda fixa -
soluções para negócios.
Sistema de negociação de buy-side vencedor do ano no FOW International Awards de 2017.
AxeTrader traz seus locais de negociação de renda fixa e fontes de liquidez juntos em um único aplicativo de negociação - para maior eficiência e melhor execução.
O AxeTrader é o primeiro e mais avançado sistema de gerenciamento de execução de renda fixa projetado para o propósito.
Mais de 90% dos nossos clientes referem a AxeTrading.
para novos clientes.
Dentro de 1 mês de ir ao vivo com AxeTrader,
uma corretora baseada em Londres viu os negócios aumentarem.
de uma média de 30 a mais de 150 por dia.
Um comerciante líder regional de renda fixa.
melhorou a capacidade de negociação e economizou milhares de dólares por ano.
escolhendo AxeTrader como sua solução de mercado.
Sistema de gerenciamento de pedidos & amp; integração de múltiplas plataformas de negociação, fluxo de trabalho de negociação e melhores ferramentas de execução, relatórios, automação pós-negociação.
Balcões de execução e negociação de agência:
Roteiro de ordens de clientes e fluxo de trabalho de execução;
integração com o Bloomberg TSOX & lt; Go & gt;
Folhas de preços poderosas, configuráveis ​​pelo usuário,
cotação automática, reserva de comércio de voz,
processamento direto.
A AxeTrading® é especializada no fornecimento de soluções tecnológicas eficazes para os desafios enfrentados pelos investidores e comerciantes de renda fixa nos mercados atuais.
Nossas pessoas experientes e nossas soluções exclusivas permitem que os clientes da AxeTrading implementem suas estratégias de negociação eletrônica de renda fixa com sucesso e orçamento. Eles permitem que nossos clientes atendam aos desafios impostos pela liquidez fragmentada, regulamentação (incluindo MiFID2, EMIR, Dodd-Frank e Basileia III) e pela demanda por maior eficiência.
'Axe': O interesse de uma pessoa ou comerciante em comprar ou vender uma garantia de renda fixa.
Um comerciante pode ter interesse específico em um determinado título de renda fixa com base em suas posições de negociação.
Pode-se dizer que essa pessoa é 'Axed' nessa segurança.
As soluções inovadoras e exclusivas da AxeTrading permitem que tanto negociantes de renda fixa do lado da compra quanto do lado da venda aproveitem o comércio eletrônico de renda fixa; eles agilizam o fluxo de trabalho, reduzem o risco operacional e facilitam a conformidade regulatória.
Nossas soluções permitem a geração de relatórios e ajudam nossos clientes a extrair insights de negócios valiosos de suas atividades de negociação. O pessoal da AxeTrading tem décadas de experiência na indústria de TI financeira. O atendimento ao cliente de qualidade também é parte integrante de nossa oferta.
Referências podem ser obtidas de nossos clientes existentes, se necessário.
razões pelas quais AxeTrading.
vai te dar a vantagem.
A AxeTrading fornece agregação de múltiplas plataformas de renda fixa, incluindo OTC, Exchanges, SEF.
O AxeTrader suporta a melhor execução e conformidade com o MiFID2. Compare os preços de várias fontes e rastreie automaticamente o mercado durante a vida útil do pedido.
A AxeTrading fornece soluções de negociação eletrônica de renda fixa que atendem às necessidades de ambos.
compra e venda.
Temos décadas de experiência em negociação eletrônica de renda fixa;
somos capazes de aconselhar e ajudar nossos clientes.
A AxeTrading constrói parcerias tecnológicas com nossos clientes. Trabalhamos com eles para implementar sistemas de e-trading de renda fixa eficazes & amp; estratégias.
Poderosas planilhas de preços configuráveis ​​pelo usuário, incluindo cálculos personalizados, preços condicionais, alertas definidos pelo usuário / condições off-line, & amp; características de segurança.
AxeTrading integra-se com sistemas internos e externos para captura de comércio automatizado & amp; relatórios (straight-through-processing ou 'STP')
Serviço especializado & amp; suporte estão incluídos no AxeTrader.
Fácil de usar, eficiente e flexível;
O AxeTrader é baseado nas mais recentes tecnologias Java e implementado em sua organização.
Implementação direta de um disco ou download; assistência incluída.
Requisito mínimo de hardware.
O AxeTrader é um sistema abrangente com um tamanho compacto.
Inclui serviço e suporte.
A AxeTrading faz parcerias com nossos clientes para fornecer soluções eficazes,
no tempo e no orçamento.
Sistema flexível e fácil de usar; auto-configurável - economiza custos.
Escalável de 2 comerciantes.
para a empresa global.
Recursos de segurança integrados em todo o AxeTrader.
Mecanismo de precificação poderoso e flexível - os traders podem configurar e gerenciar a si mesmos.
As soluções da AxeTrading se integram com sistemas de gerenciamento de pedidos e back office, bem como múltiplas plataformas de negociação de renda fixa e fontes de preços.
Nossas soluções unem seus fluxos de trabalho de renda fixa e liquidez em um único aplicativo de desktop para uma negociação mais eficiente e melhor execução.
A integração pós-negociação com locais de relatórios regulatórios, incluindo o TRACE / FINRA, custodiantes e agências de compensação, agiliza ainda mais a negociação.
tipos de conectividade fornecidos pela AxeTrader.
para negociação eficiente de renda fixa.
Integração do Bloomberg VCON;
Confirmação de comércio de voz via web;
Confirmação comercial FIX;
Bloomberg FIT, TSOX;
MarketAxess (incl. Negociação Aberta);
Integração com as principais trocas (FIX)
Integração e Integração Múltipla do SEF.
Integração com o Sistema de Gerenciamento de Pedidos da sua empresa (FIX):
Fluxo de trabalho solicitado ou não solicitado.
Integrar quaisquer dados (quando permitido);
A AxeTrading possui Parcerias de Dados com fornecedores de dados de renda fixa líderes para garantir a rápida & amp; integração fácil.
Integração com middle & amp; sistemas de back office, incluindo Bloomberg TOMS, MUREX, Kondor +;
Integração pós-negociação com custodiantes, despachantes, relatórios normativos incluindo TRACE / FINRA.
Nossos clientes são traders de renda fixa, incluindo as empresas sell-side e buy-side, que buscam formas novas ou mais eficientes de negociar ou distribuir sua liquidez de renda fixa.
através de redes de comércio eletrônico de renda fixa.
Nossa tecnologia ajuda nossos clientes a se adaptarem efetivamente ao impacto crescente das regulamentações nos mercados de renda fixa, incluindo MiFID, Basel III, Dodd-Frank e outros.
O QUE ELES DIZEM SOBRE NÓS
Martin Richardson - Mercado de Capitais de Dívida no Rand Merchant Bank.
& quot; Depois de avaliar várias alternativas, selecionamos a AxeTrader porque elas forneceram uma solução personalizada para nós, portanto, não pagamos por nenhuma funcionalidade supérflua. O resultado final é que AxeTrader nos forneceu um ótimo produto que é extremamente rentável e perfeito para as nossas necessidades individuais & quot;
Richard Boast, chefe da Sterling Credit Trading na Cannaccord Genuity.
"Para cumprir nossa exigência de negociar títulos eletronicamente via Bloomberg, analisamos as opções disponíveis para nós e favorecemos a AxeTrading e sua solução AxeTrader. Isso forneceu uma maneira eficiente de negociar e também aumentou a visibilidade da Cannaccord Genuity com clientes no mercado. Aguardo com expectativa uma parceria longa e saudável com a AxeTrading no futuro. & Quot;
Dinos co-fundou a AxeTrading em 2009 e tem mais de 25 anos de experiência em corretagem de renda fixa, vendas e comércio eletrônico.
Sua experiência anterior inclui, entre outros, um papel sênior em vendas eletrônicas de crédito no Citigroup e uma renda fixa.
função de especialista em vendas de negociantes de negociação eletrônica na Bloomberg; ambas as posições mantidas em Londres por 5 e 7 anos, respectivamente.
Tendo adquirido mais de 16 anos de experiência em operações de renda fixa / recompra e corretagem eletrônica, o profundo conhecimento técnico e de negócios da Dinos neste setor lhe rendeu uma sólida reputação entre seus pares, colegas e clientes.
Co-fundador da AxeTrading, Ralf tem mais de 15 anos de experiência em negociação eletrônica de renda fixa e é responsável pelo desenvolvimento de tecnologia e software na AxeTrading.
Graduado em Engenharia de Computação, sua experiência passada.
inclui o projeto e a implementação de sistemas de precificação e negociação de renda fixa sob medida para o JP Morgan e outros principais distribuidores de renda fixa.
Ralf é um desenvolvedor de negócios estratégicos com familiaridade de mercados de negociação em diferentes países. Antes de co-fundar a AxeTrading, ele contribuiu para o start-up e desenvolvimento de várias outras empresas de tecnologia de negociação de renda fixa bem-sucedidas, cada uma das quais continua sendo bem-sucedida nos negócios de hoje.
Mark é responsável pelo desenvolvimento de negócios da AxeTrading desde que ingressou na equipe em 2011.
Ele tem mais de 17 anos de experiência na Bloomberg, incluindo cargos seniores em negociação eletrônica de renda fixa.
Mark ganhou experiência especializada em.
venda e implementação de sistemas de leilão de títulos, plataformas de negociação e sistemas de negociação de renda fixa de mercado primário e secundário em mercados desenvolvidos e emergentes.
Ele trabalhou com tesouros nacionais, emissores e com o setor de compra e venda implementando transações eletrônicas de renda fixa em muitos países ao redor do mundo. Mark traz experiência adicional de negociação eletrônica de renda fixa em profundidade para a equipe AxeTrading.
Engenheiro de software senior.
Hannes faz parte da equipe AxeTrading desde 2010 e é engenheiro de software sênior. Com um mestrado em Ciência da Computação e mais de 10 anos de experiência em sistemas de negociação eletrônica de renda fixa, ele lidera o desenvolvimento de software.
e equipe de testes da AxeTrading.
Com uma sólida compreensão de negócios e tecnologia, sua experiência inclui design de produtos para negociação eletrônica de títulos, FX e Derivativos, bem como avaliação e implementação de sistemas de dados de mercado.
O conjunto de habilidades de Hannes permite que a AxeTrading responda com rapidez e precisão aos requisitos de nossos clientes.
A AxeTrading Limited está baseada em Londres e registrada na Inglaterra e no País de Gales.
Sede: Craven House, 16 Northumberland Avenue - Londres, WC2N 5AP (UK) | Número de registo da empresa: 06721631.
© Copyright AxeTrading® 2016. AxeTrading é uma marca registrada. Todos os direitos reservados.

Best Programming Language for Algorithmic Trading Systems?
Best Programming Language for Algorithmic Trading Systems?
One of the most frequent questions I receive in the QS mailbag is "What is the best programming language for algorithmic trading?". The short answer is that there is no "best" language. Strategy parameters, performance, modularity, development, resiliency and cost must all be considered. This article will outline the necessary components of an algorithmic trading system architecture and how decisions regarding implementation affect the choice of language.
Firstly, the major components of an algorithmic trading system will be considered, such as the research tools, portfolio optimiser, risk manager and execution engine. Subsequently, different trading strategies will be examined and how they affect the design of the system. In particular the frequency of trading and the likely trading volume will both be discussed.
Once the trading strategy has been selected, it is necessary to architect the entire system. This includes choice of hardware, the operating system(s) and system resiliency against rare, potentially catastrophic events. While the architecture is being considered, due regard must be paid to performance - both to the research tools as well as the live execution environment.
What Is The Trading System Trying To Do?
Before deciding on the "best" language with which to write an automated trading system it is necessary to define the requirements. Is the system going to be purely execution based? Will the system require a risk management or portfolio construction module? Will the system require a high-performance backtester? For most strategies the trading system can be partitioned into two categories: Research and signal generation.
Research is concerned with evaluation of a strategy performance over historical data. The process of evaluating a trading strategy over prior market data is known as backtesting . The data size and algorithmic complexity will have a big impact on the computational intensity of the backtester. CPU speed and concurrency are often the limiting factors in optimising research execution speed.
Signal generation is concerned with generating a set of trading signals from an algorithm and sending such orders to the market, usually via a brokerage. For certain strategies a high level of performance is required. I/O issues such as network bandwidth and latency are often the limiting factor in optimising execution systems. Thus the choice of languages for each component of your entire system may be quite different.
Type, Frequency and Volume of Strategy.
The type of algorithmic strategy employed will have a substantial impact on the design of the system. It will be necessary to consider the markets being traded, the connectivity to external data vendors, the frequency and volume of the strategy, the trade-off between ease of development and performance optimisation, as well as any custom hardware, including co-located custom servers, GPUs or FPGAs that might be necessary.
The technology choices for a low-frequency US equities strategy will be vastly different from those of a high-frequency statistical arbitrage strategy trading on the futures market. Prior to the choice of language many data vendors must be evaluated that pertain to a the strategy at hand.
It will be necessary to consider connectivity to the vendor, structure of any APIs, timeliness of the data, storage requirements and resiliency in the face of a vendor going offline. It is also wise to possess rapid access to multiple vendors! Various instruments all have their own storage quirks, examples of which include multiple ticker symbols for equities and expiration dates for futures (not to mention any specific OTC data). This needs to be factored in to the platform design.
Frequency of strategy is likely to be one of the biggest drivers of how the technology stack will be defined. Strategies employing data more frequently than minutely or secondly bars require significant consideration with regards to performance.
A strategy exceeding secondly bars (i. e. tick data) leads to a performance driven design as the primary requirement. For high frequency strategies a substantial amount of market data will need to be stored and evaluated. Software such as HDF5 or kdb+ are commonly used for these roles.
In order to process the extensive volumes of data needed for HFT applications, an extensively optimised backtester and execution system must be used. C/C++ (possibly with some assembler) is likely to the strongest language candidate. Ultra-high frequency strategies will almost certainly require custom hardware such as FPGAs, exchange co-location and kernal/network interface tuning.
Research Systems.
Research systems typically involve a mixture of interactive development and automated scripting. The former often takes place within an IDE such as Visual Studio, MatLab or R Studio. The latter involves extensive numerical calculations over numerous parameters and data points. This leads to a language choice providing a straightforward environment to test code, but also provides sufficient performance to evaluate strategies over multiple parameter dimensions.
Typical IDEs in this space include Microsoft Visual C++/C#, which contains extensive debugging utilities, code completion capabilities (via "Intellisense") and straightforward overviews of the entire project stack (via the database ORM, LINQ); MatLab, which is designed for extensive numerical linear algebra and vectorised operations, but in an interactive console manner; R Studio, which wraps the R statistical language console in a fully-fledged IDE; Eclipse IDE for Linux Java and C++; and semi-proprietary IDEs such as Enthought Canopy for Python, which include data analysis libraries such as NumPy, SciPy, scikit-learn and pandas in a single interactive (console) environment.
For numerical backtesting, all of the above languages are suitable, although it is not necessary to utilise a GUI/IDE as the code will be executed "in the background". The prime consideration at this stage is that of execution speed. A compiled language (such as C++) is often useful if the backtesting parameter dimensions are large. Remember that it is necessary to be wary of such systems if that is the case!
Interpreted languages such as Python often make use of high-performance libraries such as NumPy/pandas for the backtesting step, in order to maintain a reasonable degree of competitiveness with compiled equivalents. Ultimately the language chosen for the backtesting will be determined by specific algorithmic needs as well as the range of libraries available in the language (more on that below). However, the language used for the backtester and research environments can be completely independent of those used in the portfolio construction, risk management and execution components, as will be seen.
Portfolio Construction and Risk Management.
The portfolio construction and risk management components are often overlooked by retail algorithmic traders. This is almost always a mistake. These tools provide the mechanism by which capital will be preserved. They not only attempt to alleviate the number of "risky" bets, but also minimise churn of the trades themselves, reducing transaction costs.
Sophisticated versions of these components can have a significant effect on the quality and consistentcy of profitability. It is straightforward to create a stable of strategies as the portfolio construction mechanism and risk manager can easily be modified to handle multiple systems. Thus they should be considered essential components at the outset of the design of an algorithmic trading system.
The job of the portfolio construction system is to take a set of desired trades and produce the set of actual trades that minimise churn, maintain exposures to various factors (such as sectors, asset classes, volatility etc) and optimise the allocation of capital to various strategies in a portfolio.
Portfolio construction often reduces to a linear algebra problem (such as a matrix factorisation) and hence performance is highly dependent upon the effectiveness of the numerical linear algebra implementation available. Common libraries include uBLAS, LAPACK and NAG for C++. MatLab also possesses extensively optimised matrix operations. Python utilises NumPy/SciPy for such computations. A frequently rebalanced portfolio will require a compiled (and well optimised!) matrix library to carry this step out, so as not to bottleneck the trading system.
Risk management is another extremely important part of an algorithmic trading system. Risk can come in many forms: Increased volatility (although this may be seen as desirable for certain strategies!), increased correlations between asset classes, counter-party default, server outages, "black swan" events and undetected bugs in the trading code, to name a few.
Risk management components try and anticipate the effects of excessive volatility and correlation between asset classes and their subsequent effect(s) on trading capital. Often this reduces to a set of statistical computations such as Monte Carlo "stress tests". This is very similar to the computational needs of a derivatives pricing engine and as such will be CPU-bound. These simulations are highly parallelisable (see below) and, to a certain degree, it is possible to "throw hardware at the problem".
Sistemas de Execução.
The job of the execution system is to receive filtered trading signals from the portfolio construction and risk management components and send them on to a brokerage or other means of market access. For the majority of retail algorithmic trading strategies this involves an API or FIX connection to a brokerage such as Interactive Brokers. The primary considerations when deciding upon a language include quality of the API, language-wrapper availability for an API, execution frequency and the anticipated slippage.
The "quality" of the API refers to how well documented it is, what sort of performance it provides, whether it needs standalone software to be accessed or whether a gateway can be established in a headless fashion (i. e. no GUI). In the case of Interactive Brokers, the Trader WorkStation tool needs to be running in a GUI environment in order to access their API. I once had to install a Desktop Ubuntu edition onto an Amazon cloud server to access Interactive Brokers remotely, purely for this reason!
Most APIs will provide a C++ and/or Java interface. It is usually up to the community to develop language-specific wrappers for C#, Python, R, Excel and MatLab. Note that with every additional plugin utilised (especially API wrappers) there is scope for bugs to creep into the system. Always test plugins of this sort and ensure they are actively maintained. A worthwhile gauge is to see how many new updates to a codebase have been made in recent months.
Execution frequency is of the utmost importance in the execution algorithm. Note that hundreds of orders may be sent every minute and as such performance is critical. Slippage will be incurred through a badly-performing execution system and this will have a dramatic impact on profitability.
Statically-typed languages (see below) such as C++/Java are generally optimal for execution but there is a trade-off in development time, testing and ease of maintenance. Dynamically-typed languages, such as Python and Perl are now generally "fast enough". Always make sure the components are designed in a modular fashion (see below) so that they can be "swapped out" out as the system scales.
Architectural Planning and Development Process.
The components of a trading system, its frequency and volume requirements have been discussed above, but system infrastructure has yet to be covered. Those acting as a retail trader or working in a small fund will likely be "wearing many hats". It will be necessary to be covering the alpha model, risk management and execution parameters, and also the final implementation of the system. Before delving into specific languages the design of an optimal system architecture will be discussed.
Separation of Concerns.
One of the most important decisions that must be made at the outset is how to "separate the concerns" of a trading system. In software development, this essentially means how to break up the different aspects of the trading system into separate modular components.
By exposing interfaces at each of the components it is easy to swap out parts of the system for other versions that aid performance, reliability or maintenance, without modifying any external dependency code. This is the "best practice" for such systems. For strategies at lower frequencies such practices are advised. For ultra high frequency trading the rulebook might have to be ignored at the expense of tweaking the system for even more performance. A more tightly coupled system may be desirable.
Creating a component map of an algorithmic trading system is worth an article in itself. However, an optimal approach is to make sure there are separate components for the historical and real-time market data inputs, data storage, data access API, backtester, strategy parameters, portfolio construction, risk management and automated execution systems.
For instance, if the data store being used is currently underperforming, even at significant levels of optimisation, it can be swapped out with minimal rewrites to the data ingestion or data access API. As far the as the backtester and subsequent components are concerned, there is no difference.
Another benefit of separated components is that it allows a variety of programming languages to be used in the overall system. There is no need to be restricted to a single language if the communication method of the components is language independent. This will be the case if they are communicating via TCP/IP, ZeroMQ or some other language-independent protocol.
As a concrete example, consider the case of a backtesting system being written in C++ for "number crunching" performance, while the portfolio manager and execution systems are written in Python using SciPy and IBPy.
Performance Considerations.
Performance is a significant consideration for most trading strategies. For higher frequency strategies it is the most important factor. "Performance" covers a wide range of issues, such as algorithmic execution speed, network latency, bandwidth, data I/O, concurrency/parallelism and scaling. Each of these areas are individually covered by large textbooks, so this article will only scratch the surface of each topic. Architecture and language choice will now be discussed in terms of their effects on performance.
The prevailing wisdom as stated by Donald Knuth, one of the fathers of Computer Science, is that "premature optimisation is the root of all evil". This is almost always the case - except when building a high frequency trading algorithm! For those who are interested in lower frequency strategies, a common approach is to build a system in the simplest way possible and only optimise as bottlenecks begin to appear.
Profiling tools are used to determine where bottlenecks arise. Profiles can be made for all of the factors listed above, either in a MS Windows or Linux environment. There are many operating system and language tools available to do so, as well as third party utilities. Language choice will now be discussed in the context of performance.
C++, Java, Python, R and MatLab all contain high-performance libraries (either as part of their standard or externally) for basic data structure and algorithmic work. C++ ships with the Standard Template Library, while Python contains NumPy/SciPy. Common mathematical tasks are to be found in these libraries and it is rarely beneficial to write a new implementation.
One exception is if highly customised hardware architecture is required and an algorithm is making extensive use of proprietary extensions (such as custom caches). However, often "reinvention of the wheel" wastes time that could be better spent developing and optimising other parts of the trading infrastructure. Development time is extremely precious especially in the context of sole developers.
Latency is often an issue of the execution system as the research tools are usually situated on the same machine. For the former, latency can occur at multiple points along the execution path. Databases must be consulted (disk/network latency), signals must be generated (operating syste, kernal messaging latency), trade signals sent (NIC latency) and orders processed (exchange systems internal latency).
For higher frequency operations it is necessary to become intimately familiar with kernal optimisation as well as optimisation of network transmission. This is a deep area and is significantly beyond the scope of the article but if an UHFT algorithm is desired then be aware of the depth of knowledge required!
Caching is very useful in the toolkit of a quantitative trading developer. Caching refers to the concept of storing frequently accessed data in a manner which allows higher-performance access, at the expense of potential staleness of the data. A common use case occurs in web development when taking data from a disk-backed relational database and putting it into memory. Any subsequent requests for the data do not have to "hit the database" and so performance gains can be significant.
For trading situations caching can be extremely beneficial. For instance, the current state of a strategy portfolio can be stored in a cache until it is rebalanced, such that the list doesn't need to be regenerated upon each loop of the trading algorithm. Such regeneration is likely to be a high CPU or disk I/O operation.
However, caching is not without its own issues. Regeneration of cache data all at once, due to the volatilie nature of cache storage, can place significant demand on infrastructure. Another issue is dog-piling , where multiple generations of a new cache copy are carried out under extremely high load, which leads to cascade failure.
Dynamic memory allocation is an expensive operation in software execution. Thus it is imperative for higher performance trading applications to be well-aware how memory is being allocated and deallocated during program flow. Newer language standards such as Java, C# and Python all perform automatic garbage collection , which refers to deallocation of dynamically allocated memory when objects go out of scope .
Garbage collection is extremely useful during development as it reduces errors and aids readability. However, it is often sub-optimal for certain high frequency trading strategies. Custom garbage collection is often desired for these cases. In Java, for instance, by tuning the garbage collector and heap configuration, it is possible to obtain high performance for HFT strategies.
C++ doesn't provide a native garbage collector and so it is necessary to handle all memory allocation/deallocation as part of an object's implementation. While potentially error prone (potentially leading to dangling pointers) it is extremely useful to have fine-grained control of how objects appear on the heap for certain applications. When choosing a language make sure to study how the garbage collector works and whether it can be modified to optimise for a particular use case.
Many operations in algorithmic trading systems are amenable to parallelisation . This refers to the concept of carrying out multiple programmatic operations at the same time, i. e in "parallel". So-called "embarassingly parallel" algorithms include steps that can be computed fully independently of other steps. Certain statistical operations, such as Monte Carlo simulations, are a good example of embarassingly parallel algorithms as each random draw and subsequent path operation can be computed without knowledge of other paths.
Other algorithms are only partially parallelisable. Fluid dynamics simulations are such an example, where the domain of computation can be subdivided, but ultimately these domains must communicate with each other and thus the operations are partially sequential. Parallelisable algorithms are subject to Amdahl's Law, which provides a theoretical upper limit to the performance increase of a parallelised algorithm when subject to $N$ separate processes (e. g. on a CPU core or thread ).
Parallelisation has become increasingly important as a means of optimisation since processor clock-speeds have stagnated, as newer processors contain many cores with which to perform parallel calculations. The rise of consumer graphics hardware (predominently for video games) has lead to the development of Graphical Processing Units (GPUs), which contain hundreds of "cores" for highly concurrent operations. Such GPUs are now very affordable. High-level frameworks, such as Nvidia's CUDA have lead to widespread adoption in academia and finance.
Such GPU hardware is generally only suitable for the research aspect of quantitative finance, whereas other more specialised hardware (including Field-Programmable Gate Arrays - FPGAs) are used for (U)HFT. Nowadays, most modern langauges support a degree of concurrency/multithreading. Thus it is straightforward to optimise a backtester, since all calculations are generally independent of the others.
Scaling in software engineering and operations refers to the ability of the system to handle consistently increasing loads in the form of greater requests, higher processor usage and more memory allocation. In algorithmic trading a strategy is able to scale if it can accept larger quantities of capital and still produce consistent returns. The trading technology stack scales if it can endure larger trade volumes and increased latency, without bottlenecking .
While systems must be designed to scale, it is often hard to predict beforehand where a bottleneck will occur. Rigourous logging, testing, profiling and monitoring will aid greatly in allowing a system to scale. Languages themselves are often described as "unscalable". This is usually the result of misinformation, rather than hard fact. It is the total technology stack that should be ascertained for scalability, not the language. Clearly certain languages have greater performance than others in particular use cases, but one language is never "better" than another in every sense.
One means of managing scale is to separate concerns, as stated above. In order to further introduce the ability to handle "spikes" in the system (i. e. sudden volatility which triggers a raft of trades), it is useful to create a "message queuing architecture". This simply means placing a message queue system between components so that orders are "stacked up" if a certain component is unable to process many requests.
Rather than requests being lost they are simply kept in a stack until the message is handled. This is particularly useful for sending trades to an execution engine. If the engine is suffering under heavy latency then it will back up trades. A queue between the trade signal generator and the execution API will alleviate this issue at the expense of potential trade slippage. A well-respected open source message queue broker is RabbitMQ.
Hardware and Operating Systems.
The hardware running your strategy can have a significant impact on the profitability of your algorithm. This is not an issue restricted to high frequency traders either. A poor choice in hardware and operating system can lead to a machine crash or reboot at the most inopportune moment. Thus it is necessary to consider where your application will reside. The choice is generally between a personal desktop machine, a remote server, a "cloud" provider or an exchange co-located server.
Desktop machines are simple to install and administer, especially with newer user friendly operating systems such as Windows 7/8, Mac OSX and Ubuntu. Desktop systems do possess some significant drawbacks, however. The foremost is that the versions of operating systems designed for desktop machines are likely to require reboots/patching (and often at the worst of times!). They also use up more computational resources by the virtue of requiring a graphical user interface (GUI).
Utilising hardware in a home (or local office) environment can lead to internet connectivity and power uptime problems. The main benefit of a desktop system is that significant computational horsepower can be purchased for the fraction of the cost of a remote dedicated server (or cloud based system) of comparable speed.
A dedicated server or cloud-based machine, while often more expensive than a desktop option, allows for more significant redundancy infrastructure, such as automated data backups, the ability to more straightforwardly ensure uptime and remote monitoring. They are harder to administer since they require the ability to use remote login capabilities of the operating system.
In Windows this is generally via the GUI Remote Desktop Protocol (RDP). In Unix-based systems the command-line Secure SHell (SSH) is used. Unix-based server infrastructure is almost always command-line based which immediately renders GUI-based programming tools (such as MatLab or Excel) to be unusable.
A co-located server, as the phrase is used in the capital markets, is simply a dedicated server that resides within an exchange in order to reduce latency of the trading algorithm. This is absolutely necessary for certain high frequency trading strategies, which rely on low latency in order to generate alpha.
The final aspect to hardware choice and the choice of programming language is platform-independence. Is there a need for the code to run across multiple different operating systems? Is the code designed to be run on a particular type of processor architecture, such as the Intel x86/x64 or will it be possible to execute on RISC processors such as those manufactured by ARM? These issues will be highly dependent upon the frequency and type of strategy being implemented.
Resilience and Testing.
One of the best ways to lose a lot of money on algorithmic trading is to create a system with no resiliency . This refers to the durability of the sytem when subject to rare events, such as brokerage bankruptcies, sudden excess volatility, region-wide downtime for a cloud server provider or the accidental deletion of an entire trading database. Years of profits can be eliminated within seconds with a poorly-designed architecture. It is absolutely essential to consider issues such as debuggng, testing, logging, backups, high-availability and monitoring as core components of your system.
It is likely that in any reasonably complicated custom quantitative trading application at least 50% of development time will be spent on debugging, testing and maintenance.
Nearly all programming languages either ship with an associated debugger or possess well-respected third-party alternatives. In essence, a debugger allows execution of a program with insertion of arbitrary break points in the code path, which temporarily halt execution in order to investigate the state of the system. The main benefit of debugging is that it is possible to investigate the behaviour of code prior to a known crash point .
Debugging is an essential component in the toolbox for analysing programming errors. However, they are more widely used in compiled languages such as C++ or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements. Despite this tendency Python does ship with the pdb, which is a sophisticated debugging tool. The Microsoft Visual C++ IDE possesses extensive GUI debugging utilities, while for the command line Linux C++ programmer, the gdb debugger exists.
Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should. A more recent paradigm is known as Test Driven Development (TDD), where test code is developed against a specified interface with no implementation. Prior to the completion of the actual codebase all tests will fail. As code is written to "fill in the blanks", the tests will eventually all pass, at which point development should cease.
TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully. In C++, Boost provides a unit testing framework. In Java, the JUnit library exists to fulfill the same purpose. Python also has the unittest module as part of the standard library. Many other languages possess unit testing frameworks and often there are multiple options.
In a production environment, sophisticated logging is absolutely essential. Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database. Logs are a "first line of attack" when hunting for unexpected program runtime behaviour. Unfortunately the shortcomings of a logging system tend only to be discovered after the fact! As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed.
Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases. It is often wise to centralise logging information in order to analyse it at a later date, since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns.
While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now . All aspects of the system should be considered for monitoring. System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information.
Trading metrics such as abnormal prices/volume, sudden rapid drawdowns and account exposure for different sectors/markets should also be continuously monitored. Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method (email, SMS, automated phone call) depending upon the severity of the metric.
System monitoring is often the domain of the system administrator or operations manager. However, as a sole trading developer, these metrics must be established as part of the larger design. Many solutions for monitoring exist: proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case.
Backups and high availability should be prime concerns of a trading system. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected? 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected? The answers to both of these questions are often sobering!
It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment?
Similarly, high availability needs to be "baked in from the start". Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I won't delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system.
Choosing a Language.
Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised.
Type Systems.
When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C++ and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript.
For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesn't catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. 'Dynamic' languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone.
Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPy/SciPy alleviate this issue due to enforcing a type within arrays.
Open Source or Proprietary?
One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. Existem vantagens e desvantagens para ambas as abordagens. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensing/maintenance costs.
The Microsoft stack (including Visual C++, Visual C#) and MathWorks' MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant "battle testing" in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds.
Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The software allows cohesive integration with multiple languages such as C++, C# and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many plugins/libraries (some free, some commercial) for nearly any quantitative research domain.
There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools "play well" with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned.
MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive.
Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQL/PostgreSQL, Python, R, C++ and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats.
The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process.
Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce.
Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C++ in order to improve execution speeds, but it requires some experience in multi-language programming.
While proprietary software is not immune from dependency/versioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer.
I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C++ and R. The maturity, community size, ability to "dig deep" if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C++) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend.
Batteries Included?
The header of this section refers to the "out of the box" capabilities of the language - what libraries does it contain and how good are they? This is where mature languages have an advantage over newer variants. C++, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms.
C++ is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms "for free". Python is known for being able to communicate with nearly any other type of system/protocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance).
Outside of the standard libraries, C++ makes use of the Boost library, which fills in the "missing parts" of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C++11 spec, including native support for lambda expressions and concurrency.
Python has the high performance NumPy/SciPy/Pandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL++ (MySQL/C++), JDBC (Java/MatLab), MySQLdb (MySQL/Python) and psychopg2 (PostgreSQL/Python). Python can even communicate with R via the RPy plugin!
An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C++ and Java, but some also support C# and Python, either directly or with community-provided wrapper code to the C++ APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol.
Conclusão.
As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries.
The benefit of a separated architecture is that it allows languages to be "plugged in" for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it.
A Quantcademy.
Participe do portal de associação da Quantcademy que atende à crescente comunidade de traders de quantificação de varejo e aprenda como aumentar a lucratividade de sua estratégia.
Negociação Algorítmica Bem Sucedida.
Como encontrar novas ideias de estratégia de negociação e avaliá-las objetivamente para o seu portfólio usando um mecanismo de backtesting personalizado no Python.
Comércio Algorítmico Avançado.
Como implementar estratégias de negociação avançadas usando análise de séries temporais, aprendizado de máquina e estatísticas Bayesianas com R e Python.

Комментарии