Março 2019

Xpand IT entra no ranking FT1000: Europe’s Fastest Growing Companies

É com muito orgulho que a Xpand IT anuncia a sua entrada no ranking Europe’s Fastest Growing Companies, do reconhecido jornal internacional Financial Times! Com um crescimento sustentado que ultrapassou os 45% em 2018, a Xpand IT foi considerada uma das 1000 empresas em toda a Europa que mais depressa cresceu, tendo em conta os resultados consolidados entre 2014 e 2017.

Mais de 10 Milhões de faturação e cerca de 195 colaboradores foram os números que nos garantiram um lugar nesta lista, sendo que desde então já demos o salto para 15 Milhões de faturação e para mais de 245 colaboradores. Assim, das três empresas tecnológicas portuguesas presentes no ranking, a Xpand IT é a que apresenta melhores resultados a nível de faturação e de aquisição de novo talento.

Para Paulo Lopes, CEO & Senior Partner da Xpand IT, “Integrar o ranking Europeu FT 1000 é o reconhecimento do trabalho que temos vindo a desenvolver nos últimos anos. Somos reconhecidos pelo nosso know-how e expertise na área tecnologia, mas também por uma equipa e cultura únicas, focada na excelência e inovação, o que torna mais fácil atingirmos este tipo de resultados.”

O objetivo para este ano será manter a tendência de crescimento, não só através da expansão para novos mercados, mas também com o aumento da equipa, que em 2019 se espera que chegue ao redondo número de 300 Xpanders!

Ana LamelasXpand IT entra no ranking FT1000: Europe’s Fastest Growing Companies
read more

7 passos para implementar um projeto de Data Science

Entende-se por data science o conjunto de métodos e processos aplicados a um problema complexo e concreto, com o intuito de o resolver. Pode ser utilizada a inferência de dados, o desenvolvimento de algoritmos e a tecnologia para analisar os dados recolhidos e entender alguns fenómenos, identificando padrões. É necessário que os data scientists tenham conhecimentos matemáticos e tecnológicos, e que tenham o mindset certo para atingir os resultados esperados.

O objetivo, no fundo, é que, através da unificação de conceitos como a estatística, a análise de dados e o machine learning, se possam desvendar comportamentos, tendências ou inferências em determinados dados, que não seriam possíveis identificar mediante uma análise simples. É a descoberta de valiosos insights que permitirá às empresas tomar melhores decisões de negócio e potenciar investimentos importantes.

Neste blog post desvendamos 7 passos importantes para que um projeto de data science possa ser implementado de forma a alcançar o sucesso.

1. Definir o tópico de interesse /pain-points da empresa

Para dar início a um projeto de data science é necessário perceber o que se estará a tentar descobrir. Que problema apresenta a empresa ou que objetivos se pretende atingir? De que tempo a empresa dispõe para trabalhar neste projeto? Como irá ser medido o sucesso?

Por exemplo, a Netflix utiliza técnicas avançadas de análise de dados  para descobrir padrões de visualização por parte dos seus clientes, de forma a tomar decisões mais acertadas sobre as séries que produzirá de seguida; já a Google utiliza algoritmos de data science para aprimorar a colocação e demonstração de banners em display, seja publicidade ou re-targetting

2. Obter os dados necessários

Depois de definido o tópico de interesse, o foco passa a estar na recolha dos dados fundamentais para elaborar o projeto, provenientes das bases de dados disponíveis. Existem inúmeras fontes de dados, sendo que as mais comuns são bases de dados relacionais, sendo que existem também fontes de dados semi-estruturadas. Outra forma de recolher os dados necessários é efetuar as ligações adequadas a web APIs ou retirar diretamente dos websites que se pretendam eventualmente analisar (web scraping).

3. “Polir” os dados recolhidos

Este é o passo seguinte – e o que se revela mais natural – já que depois de extraídos os dados das suas bases originais, é necessário filtrá-los. Este processo é indispensável, uma vez que ao analisar dados sem relevância os resultados poderão ser desvirtuados.

Em alguns casos, será necessário alterar dados e colunas, para verificar se não existem variáveis em falta. Por isso, um dos passos a ter em conta é a junção de informação proveniente de diversas fontes, para que, no final, se possa trabalhar com uma boa base, criando um workflow eficiente.

É, também, conveniente que os data scientists tenham conhecimento acerca de algumas ferramentas, como Python ou R, que lhes permitam realizar a tarefa de “polir” os dados da forma mais eficiente.

4. Explorar os dados

Quando os dados extraídos estiverem prontos e “polidos”, é necessário proceder a uma análise. Cada tipo de fonte de dados tem características diferentes, o que implica que tenham um tratamento também diferente. Neste ponto, o fundamental é que se criem estatísticas descritivas e que se testem hipóteses – variáveis significantes.

Depois de testadas algumas variáveis, o próximo passo é colocar os dados obtidos num software de data visualisation, para que se consiga encontrar algum padrão ou tendência.  E, agora sim, podemos passar para a inclusão da inteligência artificial e do machine learning.

5. Criar modelos analíticos avançados

Esta é a parte em que se modelam os dados recolhidos, tratados e analisados. É o momento de criar modelos para que se possam, por exemplo, predizer resultados futuros. No fundo, é nesta fase que os data scientists utilizam fórmulas de regressão e algoritmos para que se possam criar modelos preditivos e prever valores e padrões futuros, de forma a generalizar ocorrências e a tornar mais eficientes as decisões.

6. Interpretar os dados / recolher insights

Encontramo-nos praticamente no último nível de implementação de um projeto de data science. É a fase em que é necessário interpretar os modelos definidos e descobrir insights importantes para o negócio – encontrar generalizações para aplicar em dados futuros – e responder ou endereçar as questões que foram colocadas no início do projeto.

O objetivo de um projeto deste género é, precisamente, encontrar padrões que ajudem a empresas a tomar decisões: caso se deva evitar um comportamento ou repetir ações que tenham resultados manifestamente positivos.

7. Comunicar os resultados

A apresentação é também bastante importante, já que tem de ser claro para os stakeholders (muitas vezes, pessoal não técnico) quais os resultados do projeto. O data scientist tem de ter o “dom” de contar uma história, para que todo o processo faça sentido e para que encaixe na resolução do problema da empresa.

Se pretende saber mais sobre projetos de data science ou se procura aconselhamento, não hesite em contactar-nos.

Ana Lamelas7 passos para implementar um projeto de Data Science
read more

Node.js: a plataforma JavaScript utilizada pela Netflix e Uber

O crescimento a que temos assistido em relação ao JavaScript é difícil de esconder. Ao longo dos anos tem-se conseguido oferecer centenas – senão milhares – de frameworks e bibliotecas que ajudam os developers e as empresas a criar sites, portais, aplicações interativas, ágeis e com interfaces modernas. Se somarmos a isto o facto de o JavaScript ser independente de outras plataformas, fácil de aprender, suportado por uma comunidade sempre crescente, entre muitas outras vantagens, é fácil perceber porquê.

No entanto, durante muito tempo, o JavaScript foi uma linguagem exclusivamente orientada para client-side e nunca conseguiu ser uma alternativa para o backend. Pelo menos até 2009, ano em que foi lançada a primeira versão do Node.js. Pela primeira vez na história do JavaScript apareceu uma alternativa viável para backend.

Algo que é importante desmistificar é o receio que muitas empresas ainda têm sobre esta alternativa aos backend mais tradicionais (Java, .NET, etc), no seu mundo de aplicações Enterprise, mesmo quando empresas como Netflix, Trello, PayPal, Linkedin, Uber, Walmart, NASA, Intel, Twitter, entre muitos outros exemplos, já usam com sucesso Node.js nas suas infraestruturas, sendo que esta lista cresce de dia para dia.

Para quem ainda não conhece Node.js, é importante salientar algumas das suas maiores vantagens:

  • Ideal para a construção de aplicações real-time;
  • Facilita a visão do programador full stack em Javascript (visto que a linguagem para backend e frontend é a mesma);
  • Diminui o tempo de desenvolvimento, graças à visão full stack;
  • É suportado por uma comunidade gigante que contribui com novas bibliotecas e updates a um ritmo alucinante;
  • A execução do código é extremamente rápida;
  • Ideal em arquiteturas orientadas a micro serviços.

Voltamos então à questão que aqui queremos endereçar: porque é que as empresas devem adotar Node.js para as suas aplicações? Respondendo sucintamente, porque foi desenhado para aplicações de escala e orientado para uma visão moderna de como desenvolver aplicações com arquiteturas complexas.

Como é que, na realidade, se concretizam essas capacidades é a parte mais importante.

A escalabilidade é essencial na grande maioria das aplicações empresariais atuais e o Node.js responde a isso oferecendo de raíz um módulo de clustering com balanceamento de carga em múltiplos cores de CPU. Associando o poder de clustering a uma solução single-threaded, non-blocking, orientada a eventos e callbacks, permite que trate de múltiplas conexões em simultâneo, conseguindo desta forma o processamento de milhões de conexões concorrentes.

O facto de ser single-thread é, por vezes, encarado como uma limitação por, em teoria, poder tornar a aplicação mais lenta, mas isso não é mais do que um mito. Ao contrário de soluções que não são orientadas a eventos e onde são necessárias múltiplas threads para lidar com múltiplos pedidos, sendo que o número de threads em paralelo é limitado, em Node.js esse limite não existe. Desde que exista memória e o kernel assim o permita, podemos processar qualquer número de pedidos em simultâneo sem problema.

Existe também o receio de muitas empresas colocarem o seu código na Cloud, o que impediria a utilização do npm (Node Package Manager). Para endereçar esta questão, foi criada uma versão Enterprise que pode ser instalada e mantida na própria infraestrutura da empresa, mantendo assim o seu registo interno de módulos, obedecendo aos requisitos mais rígidos de segurança que possam existir.

Para além disso, existe ainda a questão do suporte a longo prazo. Esta será sempre uma preocupação nas soluções Enterprise, mas a verdade é que o Node.js também garante esse suporte.

Cada versão major do Node.js contará com suporte ativo durante 18 meses, desde o período em que entra em LTS (Long Time Support), passando depois para um regime de manutenção com a duração de 12 meses extra. Durante este período não haverá qualquer inclusão de novas funcionalidades na versão utilizada, apenas a correção de bugs e atualizações de segurança. Desta forma, o problema que poderia existir nas soluções desenvolvidas com recurso a Node.js porque, por não terem longevidade, poderiam deixar de ter suporte, deixa de fazer sentido.

Foi com base em toda esta informação que as empresas anteriormente referidas decidiram fazer a sua transição para esta tecnologia. O que é que ganharam?

  • Netflix: tempos de carregamento reduzidos em cerca de 1 minuto;
  • LinkedIn: reconstruiu o seu core dos serviços mobile recorrendo a Node.js, com a aplicação a correr 20 vezes mais rápido e com uma integração muito melhor entre backend e frontend, num altura em que o Node.js tinha, apenas, um ano de desenvolvimento;
  • PayPal: migrou todas as suas web applications de Java para Javascript e Node.js, e viu os seus programadores escreverem menos 33% das linhas de código, utilizar menos 40% dos ficheiros e levar metade do tempo a construir a sua aplicação (também com recurso a menos pessoas). Os tempos de resposta diminuíram em cerca de 35%, o que implicou páginas a serem devolvidas com uma melhoria de 200ms;
  • Uber: montou o seu sistema de relacionamento entre condutores e passageiros com Node.js devido às suas capacidades de resposta rápida, grande poder de processamento de pedidos e facilidade em ter uma arquitetura distribuída.

Com isto não quero dizer que o Node.js é uma “silver bullet”. Pode não ser a melhor solução para todos os casos, mas faz sentido avaliar as suas potencialidades e perceber as mais valias que podemos retirar desta tecnologia.

Francisco CostaNode.js: a plataforma JavaScript utilizada pela Netflix e Uber
read more

O impacto de Big Data no Social Media Marketing

O social media nasceu com o intuito de criar ligações remotas entre colegas, amigos ou conhecidos que quisessem partilhar conhecimento e informação. Apesar desse propósito ainda constar da sua génese, a verdade é que o social media tem vindo a evoluir exponencialmente ano após ano, tendo-se tornado numa poderosa ferramenta de comunicação bi-direcional entre empresas e clientes.

Atualmente, o Social Media não só permite que as empresas comuniquem a sua marca e os seus produtos numa ótica de crescimento da sua base de clientes, mas permite, também, a  recolha de uma infinidade de inputs sobre os seus utilizadores, sejam eles seus clientes ou não.

Por essa razão, cada like, comment ou share, ajuda a que as empresas  percebam melhor os seus clientes e os seus comportamentos, através das interações que estes têm perante determinados conteúdos. Toda esta análise comportamental e partilha de informação gera um enorme volume de dados, algo apenas possível de armazenar e processar com recurso a tecnologias “Big Data”.

Na realidade, Big Data tem impactado quase todos os setores do nosso quotidiano,  alterando a forma como as pessoas comunicam, trabalham ou até mesmo como se divertem.

Ao longo das últimas décadas, a quantidade de dados gerados tem crescido de forma exponencial, duplicando a cada dois anos, e podendo chegar aos 44 triliões de gigabytes já em 2020. A massificação da internet e a internet of things aumentou de forma abrupta a quantidade de dados gerados, mas igualmente a necessidade de transformar e aceder a esses dados em tempos cada vez mais diminutos.

Big Data é o conceito tecnológico que agrega um conjunto de práticas e de ferramentas que permite lidar com esse problema, tendo 5 pilares fundamentais:

  • Volume (Armazenar , processar e aceder a grandes quantidades de dados)
  • Variedade (Cruzar diversas fontes de dados)
  • Velocidade (Velocidade de acesso, tratamento e processamento dos dados)
  • Veracidade (Garantia da veracidade da informação)
  • Valor (Utilidade da informação processada)

Esta “nova” capacidade de acesso e processamento de dados, permitiu um novo paradigma no marketing. Agora, é mais fácil analisar e perceber tendências, assim como possiveis “causas-efeito” das suas estratégias. Este tipo de análises tornaram-se indispensáveis para que as empresas consigam que as suas mensagens tenham uma maior percentagem de atingimento do seu target, resultado assim num acrescimo do seu ROI (Return on investment).

Como tirar partido do Big Data numa estratégia de Marketing?

A primeira coisa que deverá fazer é relacionar os dados, não estruturados, fornecidos pelas redes sociais com os dados de que já dispõe, como os detalhes dos  seus clientes.
Assim que o fizer será mais fácil observar e analisar as ações dos seus clientes e com isso tirar insights importantes que sirvam de base para as suas campanhas.

De seguida poderá começar a delinear estratégias de marketing focadas nos insights que observou. Ou seja, pode delinear campanhas de marketing assentes em conteúdo adequado às necessidades dos seus clientes, ou em grupos segmentados de clientes.

Chegou a hora da execução! Agora que já tem o conteúdo certo, baseado na análise que fez,  é altura de perceber a eficácia da sua estratégia.

Certamente já deve ter percebido que esta é a formula base para o sucesso, mas para o atingir é preciso estar constantemente a afiná-la. Ou seja, a partir deste ponto, a sua estratégia de Marketing Digital funcionará em ciclo: quanto mais insights recolher sobres os seus clientes, mais direcionadas e adequadas serão as suas estratégias e o seu conteúdo, que, por sua vez, fomentará ainda mais insights.

O Social Media Marketing é uma ferramenta que permite que qualquer empresa, indepedentemente do seu tamnho ou do mercado onde está inserida, perceba melhor os seus clientes e de que forma poderá adequar cada vez mais a sua oferta às necessidades dos seus clientes.
A verdade é que sem Big Data nada disto seria possível!

Rúben VanravanO impacto de Big Data no Social Media Marketing
read more

Também foi um gosto conhecer-te!

Nos primeiros meses do ano já estivemos em 5 Campus Universitários, do Minho à Caparica. Participámos na Talk-a-Bit, JORTEC, SEI, SINFO e na SET.

Aproveitámos bem o tempo para conhecer cada estudante e falar da Xpand IT. Trocámos ideias sobre diferentes funções, tecnologias, linguagens, áreas de negócio, mas também da nossa cultura, ADN e missão. Há tempo para tudo e por isso tivemos momentos relaxados e divertidos onde sorteamos prémios, criámos emoções com o nosso Sentiment Meter e testámos a força dos participantes!

Estes eventos são uma ótima oportunidade para conhecer os futuros profissionais da área tecnológica mas enquanto experts é, para nós, fundamental contribuir com o nosso know-how. A realidade é que os estudantes enfrentam vários desafios quando integram o mercado de trabalho, sendo que um dos deles é a relação entre a teoria e a prática. Isto é, de que forma isso se traduz no negócio e clientes. Com as nossas talks, pitchs e workshops mostrámos como se faz!

Talk A Bit – 26 de janeiro (Faculdade de Engenharia da Universidade do Porto, Porto)

Na Talk A Bit o Sérgio Viana, Digital Xperience Lead da Xpand IT, falou sobre inteligência artificial e o impacto que esta área tem quando criamos soluções digitais para os nossos clientes, com foco na experiência global.

JORTEC – 1 de fevereiro (Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa, Almada)

A JORTEC foi palco para a área de Big Data. Na Xpand IT somos orgulhosamente pioneiros na tecnologia em Portugal e os nossos experts Nuno Barreto, Big Data Lead da Xpand IT, e o Ricardo Cardante, Big Data Engineer, foram explicar como é o panorama atual e qual será o futuro desta área. Revê aqui o Live Stream.

SEI – 4 a 8 de fevereiro (Universidade do Minho, Braga)

A Semana da Engenharia Informática da Universidade do Minho é já uma participação clássica para a Xpand IT.

Este ano o grande tema foi Business Inteligence onde o Carlos Moreira, Senior BI & Big Data Consultant, e o Bruno Rebelo, Business Intelligence Developer, exploraram o tema com os estudantes.

SINFO – 18 a 22 de fevereiro (Instituto Superior Técnico, Lisboa)

Marcámos presença na SINFO pelo 4º ano consecutivo. Desta vez, levamos a expertise do Sérgio Viana, Digital Xperience Lead da Xpand IT, que falou sobre a área de Digital Xperience e a importância de um bom storytelling aliado à tecnologia mobile.

SET – 25 a 28 de fevereiro (Instituto Superior Técnico – Taguspark, Lisboa)

A Xpand IT marcou presença com a área de Data Science. A Joana Pinto, Data Scientist da Xpand IT, desmistificou o processo e jornada de um projeto desta área. Foi importante perceber quais os passos fundamentais para chegar ao sucesso!

 

Fiquem atentos às nossas redes sociais, especialmente Facebook e Instagram para novidades.

O nosso roadshow vai continuar! A próxima data é já durante o mês de março, dia 27. O Bruno Conde, Project Manager do produto Xray Cloud, vai estar presente no Instituto Politécnico de Viana do Castelo para os Open Days.

Já o mês de abril vai começar com a JobIT da FEUP – Faculdade de Engenharia da Universidade do Porto, no dia 3 de abril. De seguida, vamos estar na JobShop da FCUL – Faculdade de Ciências da Universidade de Lisboa, dia 11 de abril!

RochinhaTambém foi um gosto conhecer-te!
read more