March 2019

Xpand IT entra no ranking FT1000: Europe’s Fastest Growing Companies

É com muito orgulho que a Xpand IT anuncia a sua entrada no ranking Europe’s Fastest Growing Companies, do reconhecido jornal internacional Financial Times! Com um crescimento sustentado que ultrapassou os 45% em 2018, a Xpand IT foi considerada uma das 1000 empresas em toda a Europa que mais depressa cresceu, tendo em conta os resultados consolidados entre 2014 e 2017.

Mais de 10 Milhões de faturação e cerca de 195 colaboradores foram os números que nos garantiram um lugar nesta lista, sendo que desde então já demos o salto para 15 Milhões de faturação e para mais de 245 colaboradores. Assim, das três empresas tecnológicas portuguesas presentes no ranking, a Xpand IT é a que apresenta melhores resultados a nível de faturação e de aquisição de novo talento.

Para Paulo Lopes, CEO & Senior Partner da Xpand IT, “Integrar o ranking Europeu FT 1000 é o reconhecimento do trabalho que temos vindo a desenvolver nos últimos anos. Somos reconhecidos pelo nosso know-how e expertise na área tecnologia, mas também por uma equipa e cultura únicas, focada na excelência e inovação, o que torna mais fácil atingirmos este tipo de resultados.”

O objetivo para este ano será manter a tendência de crescimento, não só através da expansão para novos mercados, mas também com o aumento da equipa, que em 2019 se espera que chegue ao redondo número de 300 Xpanders!

Ana LamelasXpand IT entra no ranking FT1000: Europe’s Fastest Growing Companies
read more

Xpand IT enters the FT1000 ranking: Europe’s Fastest Growing Companies

Xpand IT proudly announces our entry into the Europe’s Fastest Growing Companies ranking, compiled by renowned international journal the Financial Times! With sustained growth surpassing 45% in 2018, Xpand IT attained a place among the fastest growing companies, along with 1000 other European enterprises, taking into account their consolidated results between 2014 and 2017.

An income of 10 million and 195 collaborators were the figures that guaranteed our place on this list. Our income has since taken the leap to 15 million, and we can now count on the tireless work of more than 245 collaborators. And so, out of the three Portuguese tech companies distinguished with a spot on the ranking, Xpand IT can boast the best results in terms of income and the acquisition of new talent.

Paulo Lopes, CEO & Senior Partner of Xpand IT, said “Having a place on the FT 1000 European ranking is the ultimate recognition for all the work we have undertaken over the last few years.  We are renowned for our know-how and expertise within the technology arena, and now also for our unique team and business culture, focused on excellency and innovation, which makes it far easier to achieve these kinds of results.”

This year’s goal is to maintain our growth trend, not just by expanding into new markets, but also by increasing our workforce. In 2019, we expect to reach the beautifully rounded number of 300 Xpanders!

Sílvia RaposoXpand IT enters the FT1000 ranking: Europe’s Fastest Growing Companies
read more

7 passos para implementar um projeto de Data Science

Entende-se por data science o conjunto de métodos e processos aplicados a um problema complexo e concreto, com o intuito de o resolver. Pode ser utilizada a inferência de dados, o desenvolvimento de algoritmos e a tecnologia para analisar os dados recolhidos e entender alguns fenómenos, identificando padrões. É necessário que os data scientists tenham conhecimentos matemáticos e tecnológicos, e que tenham o mindset certo para atingir os resultados esperados.

O objetivo, no fundo, é que, através da unificação de conceitos como a estatística, a análise de dados e o machine learning, se possam desvendar comportamentos, tendências ou inferências em determinados dados, que não seriam possíveis identificar mediante uma análise simples. É a descoberta de valiosos insights que permitirá às empresas tomar melhores decisões de negócio e potenciar investimentos importantes.

Neste blog post desvendamos 7 passos importantes para que um projeto de data science possa ser implementado de forma a alcançar o sucesso.

1. Definir o tópico de interesse /pain-points da empresa

Para dar início a um projeto de data science é necessário perceber o que se estará a tentar descobrir. Que problema apresenta a empresa ou que objetivos se pretende atingir? De que tempo a empresa dispõe para trabalhar neste projeto? Como irá ser medido o sucesso?

Por exemplo, a Netflix utiliza técnicas avançadas de análise de dados  para descobrir padrões de visualização por parte dos seus clientes, de forma a tomar decisões mais acertadas sobre as séries que produzirá de seguida; já a Google utiliza algoritmos de data science para aprimorar a colocação e demonstração de banners em display, seja publicidade ou re-targetting

2. Obter os dados necessários

Depois de definido o tópico de interesse, o foco passa a estar na recolha dos dados fundamentais para elaborar o projeto, provenientes das bases de dados disponíveis. Existem inúmeras fontes de dados, sendo que as mais comuns são bases de dados relacionais, sendo que existem também fontes de dados semi-estruturadas. Outra forma de recolher os dados necessários é efetuar as ligações adequadas a web APIs ou retirar diretamente dos websites que se pretendam eventualmente analisar (web scraping).

3. “Polir” os dados recolhidos

Este é o passo seguinte – e o que se revela mais natural – já que depois de extraídos os dados das suas bases originais, é necessário filtrá-los. Este processo é indispensável, uma vez que ao analisar dados sem relevância os resultados poderão ser desvirtuados.

Em alguns casos, será necessário alterar dados e colunas, para verificar se não existem variáveis em falta. Por isso, um dos passos a ter em conta é a junção de informação proveniente de diversas fontes, para que, no final, se possa trabalhar com uma boa base, criando um workflow eficiente.

É, também, conveniente que os data scientists tenham conhecimento acerca de algumas ferramentas, como Python ou R, que lhes permitam realizar a tarefa de “polir” os dados da forma mais eficiente.

4. Explorar os dados

Quando os dados extraídos estiverem prontos e “polidos”, é necessário proceder a uma análise. Cada tipo de fonte de dados tem características diferentes, o que implica que tenham um tratamento também diferente. Neste ponto, o fundamental é que se criem estatísticas descritivas e que se testem hipóteses – variáveis significantes.

Depois de testadas algumas variáveis, o próximo passo é colocar os dados obtidos num software de data visualisation, para que se consiga encontrar algum padrão ou tendência.  E, agora sim, podemos passar para a inclusão da inteligência artificial e do machine learning.

5. Criar modelos analíticos avançados

Esta é a parte em que se modelam os dados recolhidos, tratados e analisados. É o momento de criar modelos para que se possam, por exemplo, predizer resultados futuros. No fundo, é nesta fase que os data scientists utilizam fórmulas de regressão e algoritmos para que se possam criar modelos preditivos e prever valores e padrões futuros, de forma a generalizar ocorrências e a tornar mais eficientes as decisões.

6. Interpretar os dados / recolher insights

Encontramo-nos praticamente no último nível de implementação de um projeto de data science. É a fase em que é necessário interpretar os modelos definidos e descobrir insights importantes para o negócio – encontrar generalizações para aplicar em dados futuros – e responder ou endereçar as questões que foram colocadas no início do projeto.

O objetivo de um projeto deste género é, precisamente, encontrar padrões que ajudem a empresas a tomar decisões: caso se deva evitar um comportamento ou repetir ações que tenham resultados manifestamente positivos.

7. Comunicar os resultados

A apresentação é também bastante importante, já que tem de ser claro para os stakeholders (muitas vezes, pessoal não técnico) quais os resultados do projeto. O data scientist tem de ter o “dom” de contar uma história, para que todo o processo faça sentido e para que encaixe na resolução do problema da empresa.

Se pretende saber mais sobre projetos de data science ou se procura aconselhamento, não hesite em contactar-nos.

Ana Lamelas7 passos para implementar um projeto de Data Science
read more

7 steps to implement a data science project

Data science is a set of methods and procedures applied to a very complex, concrete problem, in order to solve it. It can use data interference, algorithm development and technology to analyse collected data and understand certain phenomena, identifying patterns. Data scientists must be in possession of mathematical and technological knowledge, along with the right mindset to achieve the expected results.

Through the unification of various concepts, such as statistics, data analysis and machine learning, the main objective is to unravel behaviours, tendencies or interferences in specific data that would be impossible to identify via a simple analysis. The discovery of valuable insights will allow companies to make better business decisions and leverage important investments.

In this blog post, we unveil 7 important steps to facilitate the implementation of data science.

1. Defining the topic of interest / business pain-points

In order to initiate a data science project, it is vital for the company to understand what they are trying to discover. What is the problem presented to the company or what kind of objectives does the company seek to achieve? How much time can the company allocate to working on  this project? How should success be measured?

For example, Netflix uses advanced data analysis techniques to discover viewing patterns from their clients, in order to make more adequate decisions regarding what shows to offer next; meanwhile, Google uses data science algorithms to optimise the placement and demonstration of banners on display, whether for advertisement or re-targeting.

2. Obtaining the necessary data

After defining the topic of interest, the focus shifts to the collection of fundamental data to elaborate the project, sourced from available databases. There are innumerable data sources, and while the most common are relational databases, there are also various semi-structured sources of data. Another way to collect the necessary data revolves around establishing adequate connections to web APIs or collecting data directly from relevant websites with the potential for future analysis (web scrapping).

3. “Polishing” the collected data

This is the next step – and the one that comes across as more natural – because after extracting the data from their original sources, we need to filter it. This process is absolutely essential, as the analysis of data without any reference can lead to distorted results.

In some cases, the modification of data and columns will be necessary in order to confirm that no variables are missing. Therefore, one of the most important steps to consider is the combination of information originating from various sources, establishing an adequate foundation to work on, and creating an efficient workflow.

It is also extremely convenient for data scientists to possess experience and know-how in certain tools, such as Python or R, which allow them to “polish” data much more efficiently.

4. Exploring the data

When the extracted data is ready and “polished”, we can proceed with its analysis. Each data source has different characteristics, implying equally different treatments. At this point, it is crucial to create descriptive statistics and test several hypotheses – significant variables.

After testing some variables, the next step will be to transfer the obtained data into data visualisation software, in order to unveil any pattern or tendency. It is at this stage that we can include the implementation of artificial intelligence and machine learning.

5. Creating advanced analytical models

This is where the collected data is modelled, treated and analysed. It is the ideal moment to create models in order to, for example, predict future results. Basically, it is during this stage that data scientists use regression formulas and algorithms to generate predictive models and foresee values and future patterns, in order to generalise occurrences and improve the efficiency of decisions.

6. Interpreting data / gathering insights

We are nearly entering the last level for implementing a data science project. In this phase, it is necessary to interpret the defined models and discover important business insights – finding generalisations to apply to future data – and respond to or address all the questions asked at the beginning of the project.

Specifically, the purpose of a project like this is to find patterns that can help companies in their decision-making processes: whether to avoid a certain detrimental outcome or repeat actions that have reproduced manifestly positive results in the past.

7. Communicating the results

Presentation is also extremely important, as project results should be clearly outlined for the convenience of stakeholders (who, in the vast majority of instances, are without technical knowledge). The data scientist has to possess the “gift” of storytelling so that the entire process makes sense, meeting the necessary requirements to solve the company’s problem.

If you want to know more about data science projects or if you’d like a bit of advice, don’t hesitate to get in touch.

Sílvia Raposo7 steps to implement a data science project
read more

Node.js: a plataforma JavaScript utilizada pela Netflix e Uber

O crescimento a que temos assistido em relação ao JavaScript é difícil de esconder. Ao longo dos anos tem-se conseguido oferecer centenas – senão milhares – de frameworks e bibliotecas que ajudam os developers e as empresas a criar sites, portais, aplicações interativas, ágeis e com interfaces modernas. Se somarmos a isto o facto de o JavaScript ser independente de outras plataformas, fácil de aprender, suportado por uma comunidade sempre crescente, entre muitas outras vantagens, é fácil perceber porquê.

No entanto, durante muito tempo, o JavaScript foi uma linguagem exclusivamente orientada para client-side e nunca conseguiu ser uma alternativa para o backend. Pelo menos até 2009, ano em que foi lançada a primeira versão do Node.js. Pela primeira vez na história do JavaScript apareceu uma alternativa viável para backend.

Algo que é importante desmistificar é o receio que muitas empresas ainda têm sobre esta alternativa aos backend mais tradicionais (Java, .NET, etc), no seu mundo de aplicações Enterprise, mesmo quando empresas como Netflix, Trello, PayPal, Linkedin, Uber, Walmart, NASA, Intel, Twitter, entre muitos outros exemplos, já usam com sucesso Node.js nas suas infraestruturas, sendo que esta lista cresce de dia para dia.

Para quem ainda não conhece Node.js, é importante salientar algumas das suas maiores vantagens:

  • Ideal para a construção de aplicações real-time;
  • Facilita a visão do programador full stack em Javascript (visto que a linguagem para backend e frontend é a mesma);
  • Diminui o tempo de desenvolvimento, graças à visão full stack;
  • É suportado por uma comunidade gigante que contribui com novas bibliotecas e updates a um ritmo alucinante;
  • A execução do código é extremamente rápida;
  • Ideal em arquiteturas orientadas a micro serviços.

Voltamos então à questão que aqui queremos endereçar: porque é que as empresas devem adotar Node.js para as suas aplicações? Respondendo sucintamente, porque foi desenhado para aplicações de escala e orientado para uma visão moderna de como desenvolver aplicações com arquiteturas complexas.

Como é que, na realidade, se concretizam essas capacidades é a parte mais importante.

A escalabilidade é essencial na grande maioria das aplicações empresariais atuais e o Node.js responde a isso oferecendo de raíz um módulo de clustering com balanceamento de carga em múltiplos cores de CPU. Associando o poder de clustering a uma solução single-threaded, non-blocking, orientada a eventos e callbacks, permite que trate de múltiplas conexões em simultâneo, conseguindo desta forma o processamento de milhões de conexões concorrentes.

O facto de ser single-thread é, por vezes, encarado como uma limitação por, em teoria, poder tornar a aplicação mais lenta, mas isso não é mais do que um mito. Ao contrário de soluções que não são orientadas a eventos e onde são necessárias múltiplas threads para lidar com múltiplos pedidos, sendo que o número de threads em paralelo é limitado, em Node.js esse limite não existe. Desde que exista memória e o kernel assim o permita, podemos processar qualquer número de pedidos em simultâneo sem problema.

Existe também o receio de muitas empresas colocarem o seu código na Cloud, o que impediria a utilização do npm (Node Package Manager). Para endereçar esta questão, foi criada uma versão Enterprise que pode ser instalada e mantida na própria infraestrutura da empresa, mantendo assim o seu registo interno de módulos, obedecendo aos requisitos mais rígidos de segurança que possam existir.

Para além disso, existe ainda a questão do suporte a longo prazo. Esta será sempre uma preocupação nas soluções Enterprise, mas a verdade é que o Node.js também garante esse suporte.

Cada versão major do Node.js contará com suporte ativo durante 18 meses, desde o período em que entra em LTS (Long Time Support), passando depois para um regime de manutenção com a duração de 12 meses extra. Durante este período não haverá qualquer inclusão de novas funcionalidades na versão utilizada, apenas a correção de bugs e atualizações de segurança. Desta forma, o problema que poderia existir nas soluções desenvolvidas com recurso a Node.js porque, por não terem longevidade, poderiam deixar de ter suporte, deixa de fazer sentido.

Foi com base em toda esta informação que as empresas anteriormente referidas decidiram fazer a sua transição para esta tecnologia. O que é que ganharam?

  • Netflix: tempos de carregamento reduzidos em cerca de 1 minuto;
  • LinkedIn: reconstruiu o seu core dos serviços mobile recorrendo a Node.js, com a aplicação a correr 20 vezes mais rápido e com uma integração muito melhor entre backend e frontend, num altura em que o Node.js tinha, apenas, um ano de desenvolvimento;
  • PayPal: migrou todas as suas web applications de Java para Javascript e Node.js, e viu os seus programadores escreverem menos 33% das linhas de código, utilizar menos 40% dos ficheiros e levar metade do tempo a construir a sua aplicação (também com recurso a menos pessoas). Os tempos de resposta diminuíram em cerca de 35%, o que implicou páginas a serem devolvidas com uma melhoria de 200ms;
  • Uber: montou o seu sistema de relacionamento entre condutores e passageiros com Node.js devido às suas capacidades de resposta rápida, grande poder de processamento de pedidos e facilidade em ter uma arquitetura distribuída.

Com isto não quero dizer que o Node.js é uma “silver bullet”. Pode não ser a melhor solução para todos os casos, mas faz sentido avaliar as suas potencialidades e perceber as mais valias que podemos retirar desta tecnologia.

Francisco Costa

Enterprise Solutions Lead

Francisco CostaNode.js: a plataforma JavaScript utilizada pela Netflix e Uber
read more

Node.js: the JavaScript platform used by Netflix and Uber

The progressive and noticeable growth of JavaScript is hard to ignore. Over the years, this programming language has singlehandedly provided hundreds – if not thousands – of frameworks and libraries, helping developers and companies to create websites, portals, and interactive and agile applications, with modern interfaces. Adding the fact that JavaScript is completely independent from other platforms, easy to learn and supported by an ever-growing community, among many other advantages, it is easy to understand why.

However, for a long time, JavaScript was a language exclusively oriented towards client-side development and never managed to establish itself for backend purposes – at least until 2009, when the first version of Node.js was launched. For the first time in history, JavaScript became a viable alternative for backend solutions.

It is important to demystify the fear that many companies have about this alternative to more traditional backend solutions (Java, .NET, etc.) in the world of Enterprise applications, even though companies including Netflix, Trello, PayPal, LinkedIn, Uber, Walmart, NASA, Intel and Twitter have already successfully implemented Node.js in their infrastructures – and this list continues to grow each day.

For those who are not familiar with Node.js, it is important to highlight some of its biggest advantages:

  • Ideal for the construction of real-time applications;
  • Facilitates the programmer’s full stack vision in JavaScript (as both backend and frontend languages are the same);
  • Decreases development time, thanks to its full stack view;
  • Supported by a gigantic community that contributes new libraries and updates at an astonishing rate;
  • Extremely fast code execution;
  • Ideal in architectures oriented towards micro services.

We can now go back to what we really want to discuss: why should companies adopt Node.js for their applications? In a nutshell, because it was designed for large-scale applications, offering a modern perspective on how to develop applications with complex architectures.

How those capacities actually come to fruition is the most important aspect.

Scalability is essential for the vast majority of current corporate applications, and Node.js responds to that necessity by offering a base clustering module with load balancing on multiple CPU cores. Associating the clustering power with a single-threaded, non-blocking solution, specifically designed for events and callbacks, allows it to handle multiple connections simultaneously, processing millions of concurrent connections.

Being single-threaded is often regarded as a limitation because, theoretically, it can slow down the performance of the application, but that is nothing more than a myth. On solutions that are not oriented towards events, where multiple threads are necessary to deal with multiple requests, the number of parallel threads is limited. Node.js is completely free from these limitations. As long as there’s available memory and if the kernel allows it, we can effortlessly process any number of simultaneous requests.

Companies are also generally afraid to place their code in the Cloud, which would prevent the usage of the NPM (Node Package Manager). In order to address this issue, we have created a new Enterprise version that can be installed and maintained on companies’ own infrastructures, therefore preserving their internal module registry and complying with the strictest security requirements.

We also need to touch on the subject of long-term support. This will always be a priority for Enterprise solutions, but the truth is that Node.js also assures that very same support.

Each major version of Node.js will include active support for 18 months from the period it becomes eligible for LTS (Long Time Support), after which it will transition to a maintenance regime with a duration of 12 additional months. During this period, the version used will receive security updates and bug fixes, but new functionalities will not be added. In this way, we have addressed the potential problem that causes the absence of support for solutions developed with the help of Node.js, due to its lack of longevity.

Based on all this information, the aforementioned companies decided to make their transition to this technology. What have they accomplished?

  • Netflix: a reduction of over one minute on buffering times.
  • LinkedIn: rebuilt the core of their mobile services with Node.js. Their application is currently running 20 times faster and benefits from a substantially better integration between backend and frontend. This was achieved while Node.js was just in its first year of development.
  • PayPal: migrated all their web applications from Java to JavaScript and Node.js and saw their programmers writing 33% less lines of code, using more than 40% less files and reducing by half the necessary time to build their applications (while also requiring less people). Response times have decreased by roughly 35%, which translates to an improvement of 200 ms in page creation times.
  • Uber: built their interpersonal system between drivers and passengers with Node.js, due to its fast response capabilities and massive power to process requests, along with the welcome ease and ability to have a distributed architecture.

I don’t want to plant the idea that Node.js is a “silver bullet”. It might not be the best solution for all cases, but it is always wise to evaluate your possibilities and understand the potential benefits of this technology.

Francisco Costa

Enterprise Solutions Lead

Francisco CostaNode.js: the JavaScript platform used by Netflix and Uber
read more

O impacto de Big Data no Social Media Marketing

O social media nasceu com o intuito de criar ligações remotas entre colegas, amigos ou conhecidos que quisessem partilhar conhecimento e informação. Apesar desse propósito ainda constar da sua génese, a verdade é que o social media tem vindo a evoluir exponencialmente ano após ano, tendo-se tornado numa poderosa ferramenta de comunicação bi-direcional entre empresas e clientes.

Atualmente, o Social Media não só permite que as empresas comuniquem a sua marca e os seus produtos numa ótica de crescimento da sua base de clientes, mas permite, também, a  recolha de uma infinidade de inputs sobre os seus utilizadores, sejam eles seus clientes ou não.

Por essa razão, cada like, comment ou share, ajuda a que as empresas  percebam melhor os seus clientes e os seus comportamentos, através das interações que estes têm perante determinados conteúdos. Toda esta análise comportamental e partilha de informação gera um enorme volume de dados, algo apenas possível de armazenar e processar com recurso a tecnologias “Big Data”.

Na realidade, Big Data tem impactado quase todos os setores do nosso quotidiano,  alterando a forma como as pessoas comunicam, trabalham ou até mesmo como se divertem.

Ao longo das últimas décadas, a quantidade de dados gerados tem crescido de forma exponencial, duplicando a cada dois anos, e podendo chegar aos 44 triliões de gigabytes já em 2020. A massificação da internet e a internet of things aumentou de forma abrupta a quantidade de dados gerados, mas igualmente a necessidade de transformar e aceder a esses dados em tempos cada vez mais diminutos.

Big Data é o conceito tecnológico que agrega um conjunto de práticas e de ferramentas que permite lidar com esse problema, tendo 5 pilares fundamentais:

  • Volume (Armazenar , processar e aceder a grandes quantidades de dados)
  • Variedade (Cruzar diversas fontes de dados)
  • Velocidade (Velocidade de acesso, tratamento e processamento dos dados)
  • Veracidade (Garantia da veracidade da informação)
  • Valor (Utilidade da informação processada)

Esta “nova” capacidade de acesso e processamento de dados, permitiu um novo paradigma no marketing. Agora, é mais fácil analisar e perceber tendências, assim como possiveis “causas-efeito” das suas estratégias. Este tipo de análises tornaram-se indispensáveis para que as empresas consigam que as suas mensagens tenham uma maior percentagem de atingimento do seu target, resultado assim num acrescimo do seu ROI (Return on investment).

Como tirar partido do Big Data numa estratégia de Marketing?

A primeira coisa que deverá fazer é relacionar os dados, não estruturados, fornecidos pelas redes sociais com os dados de que já dispõe, como os detalhes dos  seus clientes.
Assim que o fizer será mais fácil observar e analisar as ações dos seus clientes e com isso tirar insights importantes que sirvam de base para as suas campanhas.

De seguida poderá começar a delinear estratégias de marketing focadas nos insights que observou. Ou seja, pode delinear campanhas de marketing assentes em conteúdo adequado às necessidades dos seus clientes, ou em grupos segmentados de clientes.

Chegou a hora da execução! Agora que já tem o conteúdo certo, baseado na análise que fez,  é altura de perceber a eficácia da sua estratégia.

Certamente já deve ter percebido que esta é a formula base para o sucesso, mas para o atingir é preciso estar constantemente a afiná-la. Ou seja, a partir deste ponto, a sua estratégia de Marketing Digital funcionará em ciclo: quanto mais insights recolher sobres os seus clientes, mais direcionadas e adequadas serão as suas estratégias e o seu conteúdo, que, por sua vez, fomentará ainda mais insights.

O Social Media Marketing é uma ferramenta que permite que qualquer empresa, indepedentemente do seu tamnho ou do mercado onde está inserida, perceba melhor os seus clientes e de que forma poderá adequar cada vez mais a sua oferta às necessidades dos seus clientes.
A verdade é que sem Big Data nada disto seria possível!

Rúben VanravanO impacto de Big Data no Social Media Marketing
read more

The impact of Big Data on Social Media Marketing

Social media was born with the intent to create remote connections between colleagues, friends and others who wanted to share knowledge and information. Even though this purpose is still prevalent in its genesis, the truth is that social media has been evolving exponentially throughout the years, becoming a powerful bi-directional communication tool between companies and clients.

Nowadays, social media allows companies to publicise their brand and products, facilitating the rapid growth of their client base while also allowing the ceaseless collection of inputs from their users, whether they are clients or not.

For that reason, each like, comment or share gives companies a better understanding of their clients and their respective behaviours, through the way in which they interact with specific types of content. This behavioural analysis and exchange of information generates a massive volume of data, which can only be stored and processed using “Big Data” technologies.

In reality, Big Data has impacted on almost every sector of our daily lives, shaping the way people communicate, work and even have fun.

In recent decades, the quantity of generated data has been growing exponentially, doubling its size every two years, potentially reaching 44 trillion gigabytes in the year 2020. The massification of the World Wide Web and the Internet of things abruptly increased the amount of generated data, equally intensifying the necessity to diminish the time it takes to transform and access that same data.

Big Data is the technological concept that encompasses a particular set of practices and tools, tackling this problem using 5 fundamental principles:

  • Volume (storing, processing and accessing vast amounts of data)
  • Variety (cross-referencing data from various sources)
  • Speed (data access, treatment and processing speed)
  • Veracity (guarantee the veracity of information)
  • Value (usefulness of the information processed)

This “new” data access method and processing power has established a new paradigm within the marketing sector. Now it’s easier to analyse and identify trends, as well as possible cause and effect relationships to apply to marketing strategies. These types of analyses have become indispensable to companies for increasing the percentage of messages that actually reach the target, resulting in the growth of their ROI (return on investment).

How do we take advantage of Big Data in a marketing strategy?

The first step is to establish a relation between non-structured data, provided by social media, and already available data, such as your clients’ details. After completing this step, it will be easier to observe and analyse your clients’ actions, thus collecting important insights that will form a solid base for your future campaigns.

Now you can outline marketing strategies focused on all the insights you’ve gathered. In other words, you are now able to design marketing campaigns anchored by content that fulfills the needs of your clients, or segmented groups of clients.

Execution time has arrived! Now you possess the most actionable content, based on your analyses, let’s discover the degree of effectiveness of your strategy.

You’ve almost certainly worked out that this is a fundamental formula to success, but reaching that sweet spot will require constant “fine-tuning”. In other words, from this point forward, your digital marketing strategy will work in cycle: the number of insights about your clients and the reach and suitability of your strategies and content are proportionately higher, which in turn implies more insights.

Social media marketing is a tool that allows a company of any dimension and in any market to better understand its clients and work out the most effective strategies to shape its offers in order to satisfy the needs of its clients.

The truth: without Big Data, none of this would have been possible!

Sílvia RaposoThe impact of Big Data on Social Media Marketing
read more

Também foi um gosto conhecer-te!

Nos primeiros meses do ano já estivemos em 5 Campus Universitários, do Minho à Caparica. Participámos na Talk-a-Bit, JORTEC, SEI, SINFO e na SET.

Aproveitámos bem o tempo para conhecer cada estudante e falar da Xpand IT. Trocámos ideias sobre diferentes funções, tecnologias, linguagens, áreas de negócio, mas também da nossa cultura, ADN e missão. Há tempo para tudo e por isso tivemos momentos relaxados e divertidos onde sorteamos prémios, criámos emoções com o nosso Sentiment Meter e testámos a força dos participantes!

Estes eventos são uma ótima oportunidade para conhecer os futuros profissionais da área tecnológica mas enquanto experts é, para nós, fundamental contribuir com o nosso know-how. A realidade é que os estudantes enfrentam vários desafios quando integram o mercado de trabalho, sendo que um dos deles é a relação entre a teoria e a prática. Isto é, de que forma isso se traduz no negócio e clientes. Com as nossas talks, pitchs e workshops mostrámos como se faz!

Talk A Bit – 26 de janeiro (Faculdade de Engenharia da Universidade do Porto, Porto)

Na Talk A Bit o Sérgio Viana, Digital Xperience Lead da Xpand IT, falou sobre inteligência artificial e o impacto que esta área tem quando criamos soluções digitais para os nossos clientes, com foco na experiência global.

JORTEC – 1 de fevereiro (Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa, Almada)

A JORTEC foi palco para a área de Big Data. Na Xpand IT somos orgulhosamente pioneiros na tecnologia em Portugal e os nossos experts Nuno Barreto, Big Data Lead da Xpand IT, e o Ricardo Cardante, Big Data Engineer, foram explicar como é o panorama atual e qual será o futuro desta área. Revê aqui o Live Stream.

SEI – 4 a 8 de fevereiro (Universidade do Minho, Braga)

A Semana da Engenharia Informática da Universidade do Minho é já uma participação clássica para a Xpand IT.

Este ano o grande tema foi Business Inteligence onde o Carlos Moreira, Senior BI & Big Data Consultant, e o Bruno Rebelo, Business Intelligence Developer, exploraram o tema com os estudantes.

SINFO – 18 a 22 de fevereiro (Instituto Superior Técnico, Lisboa)

Marcámos presença na SINFO pelo 4º ano consecutivo. Desta vez, levamos a expertise do Sérgio Viana, Digital Xperience Lead da Xpand IT, que falou sobre a área de Digital Xperience e a importância de um bom storytelling aliado à tecnologia mobile.

SET – 25 a 28 de fevereiro (Instituto Superior Técnico – Taguspark, Lisboa)

A Xpand IT marcou presença com a área de Data Science. A Joana Pinto, Data Scientist da Xpand IT, desmistificou o processo e jornada de um projeto desta área. Foi importante perceber quais os passos fundamentais para chegar ao sucesso!

 

Fiquem atentos às nossas redes sociais, especialmente Facebook e Instagram para novidades.

O nosso roadshow vai continuar! A próxima data é já durante o mês de março, dia 27. O Bruno Conde, Project Manager do produto Xray Cloud, vai estar presente no Instituto Politécnico de Viana do Castelo para os Open Days.

Já o mês de abril vai começar com a JobIT da FEUP – Faculdade de Engenharia da Universidade do Porto, no dia 3 de abril. De seguida, vamos estar na JobShop da FCUL – Faculdade de Ciências da Universidade de Lisboa, dia 11 de abril!

Catarina RochinhaTambém foi um gosto conhecer-te!
read more