Esta cúpula abordará os mais recentes desafios comerciais e tecnológicos que afetam o lado da compra em um cenário financeiro e regulatório em constante mudança, bem como estratégias inovadoras para otimizar a execução comercial, gerenciando riscos e aumentando a eficiência operacional, mantendo os custos ao mínimo. WatersTechnology e Sell-Side Technology têm o prazer de apresentar a 7ª Cúpula anual de arquitetura comercial da América do Norte. Reunindo tecnólogos, arquitetos, desenvolvedores de software e gerentes de centros de dados da comunidade financeira para discutir as últimas questões em tecnologia de negociação. Data: 05 de abril de 2017 New York Marriott Marquis, Nova York Tokyo Financial Information Technology Summit Waters TechnologyBig Data é uma mudança tecnológica importante que acontece ao nosso redor. Como as empresas devem reagir Qual é a estratégia de negócio correta E, como parte dessa estratégia de negócios, qual a estratégia de propriedade intelectual correta. Ela pode ser a diferença entre sucesso e fracasso. 1. O que Big Data Big Data é a revolução que acontece ao nosso redor na criação, coleta, comunicação e uso de dados digitais. Nos últimos dois anos, a capacidade da humanidade para criar dados, para se comunicar e processá-los, aumentou a variedade. De acordo com a IBM, produzimos 2.5 exabytes (isto é 2,500,000,000,000,000,000 ou 2,521510 18 bytes) de dados todos os dias em 2017. Mas a quantidade total de dados, além de uma compreensão fácil e intuitiva, não é a característica-chave de Big Data. Sua principal característica é o crescimento exponencial contínuo desses dados. Enquanto 90 dos dados existentes hoje foram criados nos últimos dois anos (o que significa que, em menos de 18 meses, criamos mais dados do que criados desde o início da humanidade, há cerca de 150 mil anos), o ponto mais importante É isso: os 90 criados nos últimos dois anos, que o que consideramos enormes quantidades de dados hoje, será reduzido a uma insignificância completa em alguns anos. Os seres humanos não são muito bons em realmente entender matemática exponencial, ou em entender seu impacto. Este post do blog dará uma visão de como as empresas de tecnologia e seus investidores devem planejar e se preparar para o Big Data Tsunami que está indo em seu caminho. E não apenas hoje, mas para o futuro previsível. Não há indícios de que esta duplicação do poder computacional (Lei Moores), a duplicação da capacidade de armazenamento ou a duplicação da capacidade de comunicação cada uma em 18 meses ou menos está a ponto de diminuir nos próximos dois anos. Isso apresenta a todos os negócios um desafio sério: como o surgimento de grandes dados afetará a forma como o negócio usa seus ativos intangíveis. Como sabemos, a maioria dos ativos atualmente são intangíveis, também conhecidos como Capital Intelectual ou Propriedade Intelectual. Provavelmente, o Capital Intelectual está no cerne de qualquer negócio inovador. Usá-lo melhor será a receita para futuros negócios. E não conseguir usá-lo melhor será uma receita de falha. 2. Enquadrando a discussão em torno da Estratégia de Dados Grandes e de Capital Intelectual. A) O que queremos dizer com dados, e qual é a diferença com informação e inteligência Os dados são um conceito muito amplo. Tudo o que é criado digitalmente é coberto. De cada documento em sua área de trabalho para qualquer imagem postada por qualquer usuário de mídias sociais. Mas é muito mais do que isso. Isso também significa que, por exemplo, Todos os 150 milhões de sensores do Large Hadron Collider em Genebra, entregando dados de 40 milhões de vezes por segundo, estão incluídos no conceito de dados. Se todos esses dados fossem gravados, eles excederiam 500 Exabytes por dia 200 vezes mais do que a criação mundial de dados por dia de acordo com a IBM, conforme mencionado acima. No entanto, esses dados não são realmente produzidos, registrados ou processados antes disso, ocorre uma filtragem maciça. Na realidade, o LHC produz apenas 25 Petabyte por ano de dados (um Petabyte é 121510 15. então 11000 th de um Exabyte). A implicação é que existem enormes quantidades potenciais de dados que serão criados e processados, uma vez que nossa capacidade de computação e comunicação o permita. Mas os dados significam mais do que isso. Também inclui tudo criado por qualquer tipo de sensor, mas também por qualquer câmera, a entrada de qualquer usuário, qualquer pessoa que esteja operando um dispositivo de computação (PC, celular, tablet, etc.). Qualquer projeto, qualquer plano, qualquer invenção, qualquer comunicação também está incluída. E todos esses dados aumentam exponencialmente, aproximadamente todos os anos ou mais. Qual é a relação entre dados e informações Essencialmente, eles são os mesmos. Cada bit de dados tem informações. A natureza dessa informação e seu valor potencial são determinados pela análise. É aqui que começamos a falar sobre o significado dos dados, e a inteligência que pode ser extraída deles. No entanto, embora sejam possíveis muitas definições e abordagens em relação à forma como a informação se torna útil, e sobre o valor da análise e da inteligência, uma observação simples será suficiente para a finalidade deste blogpost. Essa observação é que qualquer subconjunto de dados, como dados úteis, ou dados inteligentes, ou dados estruturados, crescerão de forma semelhante e exponencial. A implicação desta observação é que não são apenas os dados que crescem exponencialmente, mas também, por implicações necessárias, conhecimento ou dados úteis. Então, precisamos avaliar as estratégias de propriedade intelectual em um mundo onde a quantidade de conhecimento cresce exponencialmente. B) A importância dos algoritmos A análise de dados, ou mesmo praticamente qualquer forma significativa de usar dados, é feita através do uso de algoritmos. Um algoritmo descreve um processo de cálculo, processamento ou raciocínio, e permite extrair significado e compreensão a partir de dados. Isso, por sua vez, aumenta o valor dos algoritmos de dados que os dados nos falam. É aí que os dados se transformam em inteligência através da aplicação de algoritmos que os dados começam a fazer sentido e podem nos fornecer informações adicionais. Um dos grandes potenciais do Big Data é a capacidade de recombinar dados de diferentes fontes e compará-los e analisá-los. Isso permite encontrar novas correlações, algo que nos ajude a entender como a sociedade funciona, e como um fenômeno funciona em outro. Por exemplo, a análise dos dados brutos da prescrição de medicamentos no Serviço Nacional de Saúde na Inglaterra e País de Gales, permite encontrar correlação com certas visitas hospitalares para condições que são indiretamente causadas por certos medicamentos, que não foram observados pelos ensaios clínicos (ou Que as empresas farmacêuticas mantiveram escondidas da publicação). O valor potencial de Big Data, e seu uso, é enorme. McKinsey, a consultoria, estima que Open Data iria adicionar entre 3tn e 5tn para a economia mundial, que é uma economia com um tamanho entre a Alemanha eo Japão. E os algoritmos são a chave para desbloquear esse valor de Big Data, portanto, eles serão chave em qualquer Estratégia IP. C) O que é Estratégia de Propriedade Intelectual A Estratégia de Propriedade Intelectual significa que o negócio entende o que é o seu Capital Intelectual e o usa da maneira mais ideal para suportar a estratégia de negócios. Parece muito mais do que apenas patentes ou direitos autorais, os aspectos técnicos dos direitos de propriedade intelectual, mas considera toda a gama de Capital Intelectual. Os principais aspectos da Estratégia de IP consistem em reconhecer e compreender o Capital Intelectual, avaliar como eles são usados para apoiar o modelo de negócios e manter o equilíbrio certo entre uma abordagem aberta e usar técnicas de proteção (como patentes ou direitos autorais), levando em consideração o impacto De Open Innovation e Open Source. Em essência, é a ferramenta para trazer a inovação para o mercado e para inovar em inovação para novos mercados. 3. Impacto de grandes dados na estratégia IP. Este post do blog analisará como os Grandes Dados afetarão a Estratégia de IP de cinco ângulos. Esses cinco são 1) estratégia de patentes 2) propriedade de dados 3) direitos autorais 4) segredo saber-como e 5) valor de IP e estratégia de algoritmos. Todos eles são partes essenciais de uma estratégia IP. A) Estratégia de patentes. As estratégias de patentes podem ser bastante diferentes de uma indústria para outra. No entanto, existem alguns elementos comuns a serem considerados, e podem ser resumidos em duas observações. As observações são que tanto obter e usar patentes tornar-se-ão muito mais difícil. Como conseqüência, o valor comercial das patentes provavelmente diminuirá significativamente. A obtenção de patentes se tornará muito mais difícil. A observação é direta, mas muito importante: se a quantidade de informações disponíveis for duplicada a cada 18 meses, a quantidade da arte anterior também é dupla a cada 18 meses. As patentes são direitos exclusivos, concedidos em invenções técnicas inovadoras e não óbvias. A concessão de patentes baseia-se no pressuposto de que os escritórios de patentes conhecerão a tecnologia existente no momento do pedido de patente e recusarão o pedido se a tecnologia descrita não for nova. No entanto, se a quantidade de informações existentes crescer de forma exponencial, isso significa que, em princípio, a taxa de rejeição das patentes também deve crescer exponencialmente, até o ponto em que chegará a 100. O motivo é simples: o número de patentes não duplica muito rápido Nos últimos 50 anos, duplicou apenas duas vezes nos EUA. O crescimento exponencial da arte anterior (lembre-se que este é um fenômeno que os humanos intuitivamente lutam para entender) significa que a quantidade de informações que permitiria proibir a concessão de uma patente e que é qualquer patente também cresce exponencialmente. Assim, a menos que a concessão de patentes também cresça exponencialmente, a área de tecnologia que é patenteável encolherá de acordo. Uma vez que as patentes são concedidas por operadores humanos (examinadores de patentes), e o número de examinadores de patentes não pode crescer exponencialmente (dentro de alguns anos, a maioria da força de trabalho teria que consistir em examinadores de patentes, o que seria absurdo), o número de patentes Ficará para trás. De forma exponencial. Mais importante ainda, se os escritórios de patentes fariam o seu trabalho de forma adequada e apenas concedessem patentes sobre tecnologia que seja realmente nova, a taxa de rejeição aumentaria e atingiria níveis muito altos (até 100), dentro de um período de tempo relativamente curto. Isto significa que o risco de ter uma patente rejeitada dois ou três anos através do processo de inscrição aumentará significativamente. No entanto, esse fenômeno ainda não é muito visível. Uma das principais razões pelas quais o impacto da explosão Big Data de informações acessíveis não é muito visível no momento em que as patentes estão sendo concedidas, é porque os escritórios de patentes não olham a arte anterior de forma a levar em consideração a Crescimento exponencial de informações de tecnologia não patenteadas. A maioria dos processos de exame de patentes revisa os bancos de dados de patentes existentes e estabelecerá novidade contra patentes existentes em vez do estado atual da tecnologia. Isso fazia sentido em um mundo onde a velocidade da criação de informações não era um problema, ou geralmente era paralela à taxa de patentes de tecnologia. No entanto, uma vez que a tecnologia não patenteada (e, mais particularmente, informações sobre elas) duplica a cada 18 meses, a relevância dos bancos de dados de patentes para determinar se algo é novo e tem uma influência significativa. Não é claro para mim se os escritórios de patentes percebem a insignificância exponencialmente crescente de sua abordagem tradicional de dados. Uma vez que eles fazem, no entanto, eles só têm duas opções. O primeiro é rejeitar a maioria, se não todos os pedidos de patente. A segunda opção é ignorar a realidade e conceder patentes sobre invenções não-inovadoras. No entanto, isso (e, indiscutivelmente, já existe) cria enormes problemas na aplicação ou no uso de patentes, conforme explicado mais adiante. De qualquer maneira, a partir de um nível puramente teórico, um sistema de patentes baseado em novidade é insustentável em um ambiente de arte prévia exponencialmente crescente ou informações publicamente disponíveis. Do ponto de vista da Estratégia de IP, isso significa que as empresas terão de se tornar muito mais seletivas e conhecedoras em seu processo de decisão sobre o que patentear e como patenteá-la. Isso afetará tanto o escopo das patentes (que, para se manterem efetivas, é susceptível de se tornar muito mais estreito) e a taxa de sucessão de pedidos de patente, que terão um impacto significativo no retorno do investimento em patentes Direitos exclusivos são procurados e usados por uma empresa e seus investidores. Uso de patentes Um problema semelhante afeta o uso potencial de patentes como parte de uma estratégia IP. Existem várias maneiras pelas quais as patentes podem ser usadas, mas a função central de uma patente é atuar como um direito exclusivo de um monopólio sobre a produção ou distribuição de um produto ou serviço. Isso significa que usar uma patente efetivamente significa processar um competidor para que ele bloqueie o acesso ao mercado ou cobrar uma licença para permitir que eles vendam. No entanto, de acordo com as especificidades do sistema jurídico envolvido, quando um detentor de patente deseja fazer valer uma patente, o arguido geralmente pode invocar que a patente não deveria ter sido concedida, porque havia arte anterior no momento da concessão da patente. E, enquanto os escritórios de patentes não parecem ter um incentivo claro para levar em consideração a realidade real, incluindo a informação exponencialmente disponível criada pela Big Data, ao revisar o aplicativo, a situação é muito diferente para um réu em um processo de patente. Eles terão todos os incentivos para estabelecer que a patente nunca deveria ter sido concedida, porque havia uma técnica anterior pré-existente, e a informação na patente não era nova no momento do pedido. E uma conseqüência importante de Big Data será que a informação disponível para os réus a este respeito, também crescerá exponencialmente. Isso significa que, novamente, de um nível teórico, a probabilidade de se defender contra uma reivindicação de patente com base na arte anterior, aumentará significativamente. Devido ao atraso entre os pedidos de patente e a sua utilização no tribunal (demora vários anos para que um pedido seja concedido, e pode demorar mais tempo para que um tribunal decida), o efeito da recente explosão de informações como um O resultado do Big Data também não é muito visível nos tribunais de patentes. Mas esta é uma bomba de tempo e, se e na medida em que as regras processuais não interferem com a possibilidade de invocar a técnica anterior para invalidar uma patente, existe uma grande probabilidade de vermos as taxas de invalidação nos tribunais aumentar acentuadamente. Do ponto de vista da Estratégia de IP, isso significa que uma estratégia de IP ofensiva, consistente em processar concorrentes ou outros com base em seu portfólio de patentes, torna-se mais arriscada. Embora os custos continuem a aumentar, o potencial de um resultado negativo também aumentará significativamente. Existe uma segunda questão importante em torno do uso de patentes que também precisam ser abordadas aqui. Relaciona-se ao aspecto algorítmico das patentes. Uma patente é, por si só, um algoritmo. Ele descreve o processo de uma invenção técnica como funciona (pelo menos, é isso que uma patente é teoricamente suposto estar fazendo). Portanto, é bem possível que muitos algoritmos em torno da análise de Big Data se tornem patenteados. Pode-se argumentar que isso irá atuar como contrapeso contra o declínio do valor e o potencial das patentes descritas acima. No entanto, não acredito que o efeito seja mais do que marginal. Os motivos da minha opinião são os três desafios que afetam o valor potencial de uma patente em algoritmos que analisam Big Data. O primeiro é que muitos desses algoritmos não são, de fato, invenções técnicas. São estruturas ou métodos teóricos e, portanto, podem facilmente cair na área de matéria não patenteável. A segunda é que as patentes algorítmicas são particularmente vulneráveis à capacidade de outros para inovar em torno deles. É bastante improvável que um algoritmo de análise de dados seja único ou mesmo necessário do ponto de vista técnico. A maioria dos algoritmos de análise de dados são uma maneira particular de fazer coisas semelhantes, como busca, busca inteligente e reconhecimento de padrões. Existe, de fato, um processo de comoditização em andamento em busca de algoritmos analíticos e de busca. Como regra geral, para se tornar patenteável, esses algoritmos devem ser bastante específicos e focados. Quanto mais amplos são descritos, maior a probabilidade de rejeição por causa da existência da arte anterior. No entanto, isso reduz seu impacto na perspectiva de usá-los para bloquear outros acessos ao mercado. Um algoritmo ligeiramente diferente, que produz uma inteligência analítica suficientemente semelhante, mas fora do escopo da primeira patente, muitas vezes (na minha experiência quase sempre) estará disponível. Isto é devido à natureza genérica dos diferentes aspectos da maioria dos algoritmos analíticos de dados é basicamente sempre uma combinação de verificação, cálculo, filtragem e compressão de informações (às vezes com visualização ou marcação e criação de metadados adicionados), mas as formas potenciais nas quais estes podem Ser combinado rapidamente se torna ilimitado. Na prática, isso significa que uma patente em torno da análise de dados quase sempre pode ser contornada com relativa facilidade. Mas o terceiro desafio é o mais importante. As patentes são algoritmos congelados. Os elementos do algoritmo descritos em uma patente são corrigidos. A fim de ter uma nova versão do algoritmo também protegida, a patente terá que ser escrita muito vaga (o que aumenta seriamente o risco de rejeição ou invalidez) ou terá que ser acompanhado por uma nova patente, sempre que o algoritmo Está adaptado. E a observação chave em torno dos algoritmos Big Data é que, para ter um valor comercial continuado, eles devem ser adaptados continuamente. Isso ocorre porque os dados, seu volume, fontes e comportamento mudam continuamente. Compare isso com os principais algoritmos de pesquisa do Google. Esses algoritmos são modificados e atualizados continuamente. Na verdade, para permanecer relevante, o Google deve mudar continuamente seus algoritmos de busca se eles não o fizerem, eles deixariam atrás a concorrência muito rapidamente e tornaram-se irrelevantes em um tempo muito curto. A consequência é que, mesmo que um negócio consiga patrocinar com sucesso os algoritmos analíticos Big Data e evite as armadilhas descritas acima, essa patente perderá seu valor muito rapidamente. A razão é simples: os algoritmos reais utilizados no produto ou serviço evoluirão rapidamente para além dos descritos na patente. Novamente, a única resposta potencial para isso é escrever reivindicações muito amplas e vagas, uma abordagem que não funciona muito bem. Em outras palavras: os ciclos de desenvolvimento de tecnologia de algoritmos aplicados à análise e análise de dados grandes são muito curtos para ser acomodados pelas patentes, como elas existem hoje. Por conseguinte, o uso de patentes irá diminuir significativamente o seu valor para a empresa precisa ser continuamente reavaliado para abordar esta observação. Do ponto de vista da estratégia IP global, isso significa que as empresas terão de se tornar muito mais seletivas na aplicação e uso de patentes. Por outro lado, os investidores terão que reavaliar sua visão sobre o valor que as patentes adicionam a uma empresa. B) Propriedade de dados A propriedade de dados é uma área de direito interessante e em desenvolvimento. Na maioria dos países, é teoricamente possível possuir dados de acordo com a lei. O princípio jurídico aplicado será diferente, mas normalmente é baseado em algum tipo de proteção do esforço para criar ou reunir os dados, e permitirá bloquear ou cobrar pelo acesso ou uso. No entanto, há uma série de desafios relacionados à propriedade dos dados. Esses desafios são baseados no fato de Big Data ser tipicamente descrito por três características: Volume, Velocidade e Variedade. O volume representa o crescente número de dados, como explicado acima. Velocity significa a velocidade necessária para obter acesso e uso de dados, e Variety representa o fato de que fontes e formatos de dados se multiplicam e mudam constantemente. Do ponto de vista da propriedade, essas características nos levam a duas maneiras pelas quais o conceito tradicional de propriedade de dados é desafiado por Big Data. A primeira é a simples observação de que os dados são uma mercadoria não rival. Isso significa que um uso de dados de uma pessoa não necessariamente proíbe ou reduz o valor do uso desses dados por outra pessoa ou por mais 10 000 pessoas. Do ponto de vista técnico, a reutilização de dados é a forma mais comum e óbvia de se aproximar dos dados. Mas o desafio não é técnico nem jurídico, é baseado em modelos e interesses comerciais. E esses modelos de negócios e interesses nos apontam para dois fatos muito relevantes: a) a maioria dos dados são gerados por outra pessoa, e b) o valor dos dados aumenta por seu uso, e não a restrição ao uso deles. O primeiro fato é óbvio, mas sua relevância é subestimada. A maior parte do valor comercial em Big Data reside na combinação de dados de diferentes fontes. Além disso, a fonte real de dados é muitas vezes desconhecida, ou deriva de diferentes níveis de comunicação. Os dados dos clientes serão combinados com os dados dos fornecedores. Os dados das agências governamentais serão combinados com os dados das máquinas. Os dados internos precisam ser comparados com dados externos. Etc. Etc. Portanto, há um impulso claro para abrir e combinar fluxos de dados, esta é a maneira mais eficiente e melhor para criar valor comercial. E embora seja verdade que, de uma perspectiva legal e de gerenciamento de riscos, muitas pessoas indicam os riscos relacionados à abertura de fluxos de dados (e esses riscos são reais), é minha perspectiva que esses riscos e os custos relacionados a abordá-los, Vai se afogar na inundação da criação de valor comercial gerada pela abertura e combinação de fluxos de dados. Adicione a observação de que muitos governos estão atualmente considerando a quantidade de seus dados se tornará aberta. A tendência provável é que muito, mais dados públicos sejam disponibilizados gratuitamente, ou para uma taxa de acesso nominal. Isso, por sua vez, aumentará o potencial de reutilização e recombinação desses dados, impulsionando as empresas a abrir, pelo menos em parte, seus próprios fluxos de dados. E isso leva ao segundo fato. O valor dos dados está no seu fluxo, não nas suas fontes. Os grandes dados podem ser comparados aos novos sistemas fluviais que surgem em todos os lugares. E o valor de um rio é ter acesso ao fluxo, não controle sobre as fontes. É claro que as fontes têm alguma relevância e o controle sobre formas ou aspectos específicos dos dados pode ser valioso para determinadas aplicações. Mas a regra geral é, ou será, que ganhar e fornecer acesso aos dados será muito mais valioso do que impedir o acesso aos dados. Como resultado, a questão da propriedade dos dados provavelmente não é a pergunta certa a ser feita. Não importa muito quem possui os dados, mas quem pode usá-los e para que propósito. E, à medida que o número de fontes e a quantidade de dados crescem, é o potencial de recombinação desses aspectos, que levará ao crescimento exponencial da forma como usamos e abordamos os dados. A analogia do rio é útil novamente: à medida que o número de fontes e dados cresce, o número de sistemas fluviais também cresce e eles serão praticamente adjacentes uns aos outros. Se você não pode usar um, você pula para outro, a variedade em oferta fará com que o controle ou a propriedade na prática sejam praticamente impossíveis de operar. A conclusão sobre a propriedade é novamente ilustrada melhoramente pela nossa analogia do rio: não devemos nos concentrar em quem é dono da terra que está ao lado do rio, devemos nos concentrar em poder usar o fluxo e extrair valor disso. Do ponto de vista prático, isso significa que a propriedade dos dados deve ser analisada de um ângulo diferente: as empresas não devem se concentrar na aquisição de propriedade de dados, mas na expansão de diferentes formas de usar dados, independentemente da fonte. C) Copyright Copyright é um sistema incrivelmente inepto para a Sociedade da Informação. Seu objetivo nominal é recompensar autores e outros criadores. Na vida real, beneficia principalmente os distribuidores de conteúdo. Originalmente, os direitos autorais eram normalmente concedidos para a expressão da atividade criativa: escrever um livro ou um blog, criar ou tocar música, fazer um filme, etc. No entanto, os direitos autorais também se aplicam ao código do software, com base na observação de que o código é como linguagem, E, portanto, sujeito a direitos autorais. Como tal, o copyright cobre o código, mas não a funcionalidade do software expressa através do código. Mas os direitos autorais aplicam-se a Big Data E, em caso afirmativo, tem valor comercial Os dados são informações. O copyright não se aplica ao conteúdo semântico ou ao significado do texto escrito por autores humanos. Em outras palavras, não é a mensagem que está coberta, mas a forma como a mensagem é formulada. Se apenas uma formulação for possível, não há proteção de direitos autorais, porque não há escolha criativa possível. Ou seja, muito resumido, o que a teoria dos direitos autorais afirma. Logicamente, isso significa que a maioria dos dados ficará fora dos direitos autorais. Todos os dados gerados por máquinas ou sensores não serão cobertos por direitos autorais. Qualquer informação estatística ou matemática não é, como tal, coberta por direitos autorais. Isso significa que um subconjunto muito grande de Big Data não será coberto por direitos autorais. Esta observação legal não impedirá que muitas empresas reivindiquem direitos autorais. Reivindicar direitos autorais é fácil: não existe um sistema de registro e não há nenhuma sanção a reclamar direitos autorais ou reclamar direitos autorais sobre algo que não pode ser coberto por direitos autorais (por exemplo, dados gerados por máquina). Outro grande subconjunto do Big Data é, em teoria, coberto por direitos autorais, mas na prática, a abordagem de direitos autorais não funciona. Este subconjunto diz respeito a todos os dados gerados pelo usuário. Qualquer imagem, vídeo ou outra criação postada por qualquer usuário de mídia social on-line é, em teoria, coberta por direitos autorais. Mas esse direito autoral nunca é realmente usado. Os usuários não poderão reivindicar proteção de direitos autorais contra a plataforma de mídia social (os termos de uso sempre incluirão licenças extremamente liberais, permitindo que a plataforma de mídia social faça muito o que eles querem com o conteúdo). Mais importante ainda, o valor de todo esse conteúdo gerado pelo usuário reside em usá-lo de maneiras que os direitos autorais são estruturalmente incapazes de manipular. O conteúdo gerado pelo usuário, para ter valor, deve ser livremente disponível para copiar e colar, marcar, adaptar, criar derivados e, fundamentalmente, compartilhar sem limitação. É o oposto do que os direitos autorais tentam alcançar (um sistema de distribuição e cópia limitada e controlada). Novamente, a análise aponta para a natureza inadequada do nosso sistema de Propriedade Intelectual. A maior parte do valor comercial no uso do Big Data será em violação de direitos autorais, normalmente ignorando-o ou, na melhor das hipóteses, lhe dará algum serviço labial (como, por exemplo, Facebook ou outras mídias sociais grandes), ou estará lidando com dados que são Não sob direitos autorais, mas não foram necessariamente reconhecidos como tal pelo sistema judicial. Como resultado, o aspecto de direitos autorais de qualquer estratégia de IP em Big Data deve antes de mais ter que fazer a análise de a) se o direito de autor se aplica, e b) se ele adiciona qualquer valor comercial. Uma vez que a aplicabilidade dos direitos autorais sobre a máquina ou o conteúdo gerado pelo usuário está em parte em limbo legal, uma solução adequada para algumas empresas pode ser usar a abordagem creative commons. Isso ajuda a garantir que os dados sejam compartilhados e reutilizados, aumentando assim seu valor e permite, de uma perspectiva prática, ignorar a questão de saber se os direitos autorais se aplicam ou não. Se se aplica, a licença creative commons resolve o problema. Se não se aplica, e os dados podem ser usados livremente, o resultado final será, de uma perspectiva comercial, semelhante. Um ponto final sobre os direitos de banco de dados, um subconjunto de direitos autorais para um propósito específico, desenvolvido na União Européia. Embora os direitos de banco de dados possam parecer um sistema especificamente projetado para Big Data, a realidade mostra o contrário. Os direitos de banco de dados não protegem os dados reais, eles protegem a forma como os dados são organizados ou representados. Em uma situação típica dos Grandes Dados, eles se aplicariam ao resultado estruturado de uma análise algorítmica de um conjunto de dados. Ou eles podem se candidatar a um modelo de banco de dados relacional, a maneira como um aplicativo classificará os dados que lhe são entregues, antes que uma funcionalidade específica seja aplicada a ele. Embora estes tenham potencialmente bastante valor, o conceito de protegê-los através de um sistema relacionado a direitos autorais sofre os mesmos pontos fracos do próprio direito de autor. O valor de tais bancos de dados é derivado diretamente de: a) acesso aos dados subjacentes e b) processo algorítmico de seleção e manipulação dos dados, ambos não abrangidos por direitos de banco de dados. O resultado final do exercício, como instantâneo, é coberto por direitos de banco de dados. Mas a lógica de importação, seleção e outras funções neles não são. Em outras palavras, é outro Direito de Propriedade Intelectual que não se concentra no valor comercial da Big Data, e é por isso que ninguém realmente fala sobre isso. D) segredo de saber-como o segredo e a proteção de know-how podem ser um bem muito valioso das empresas. O exemplo mais clássico é, claro, a fórmula secreta da Coca-Cola. Não está realmente protegido por um direito formal de propriedade intelectual (qualquer pessoa pode copiar, por exemplo, receitas de culinária), mas tem um valor comercial significativo e está protegido por outros instrumentos legais. Normalmente, o direito dos contratos, com acordos de confidencialidade, desempenhará um papel importante na proteção de segredos comerciais e know-how, e a maioria dos sistemas legais permite que as empresas tragam reclamações legais contra concorrentes, parceiros de negócios ou funcionários que divulguem ou usem informações secretas de maneiras não autorizadas. Em geral, essa abordagem é usada por muitas empresas. Muitas vezes, a estratégia em torno de proteger o Capital Intelectual consistirá em entender quais são os segredos comerciais e na construção de procedimentos adequados de proteção ou divulgação. No entanto, uma consideração fundamental para esta parte de qualquer IP e estratégia de negócios é a palavra segredo. O segredo tem uma grande desvantagem: significa que você não pode falar, usar ou divulgar o que quer que seja secreto de uma maneira que permita que outros descubram sobre isso. O desafio aqui é que muito do valor da Big Data depende, como já vimos repetidamente, da capacidade de ter acesso, e, de preferência, acesso aberto ou livre a tantos dados quanto possível. Isso significa que existe uma pressão natural impulsionada pelo mercado para as empresas, em um ambiente Big Data, para preferir o uso (e, portanto, uma abordagem aberta) aos dados, em vez de limitar ou restringir o uso. Embora seja verdade que o acesso a determinados dados pode ser muito valioso, esta abordagem baseia-se tipicamente no pressuposto de que se conhece os dados disponíveis e entende pelo menos as considerações de valor mais importantes em relação a esses dados. É aí que o Big Data apresenta uma mudança importante: não só torna-se muito mais difícil saber quem possui ou gera quais dados, ou o que está nesses dados, também se torna muito mais arriscado não conceder acesso relativamente gratuito aos dados. Isso ocorre porque há um grande valor relevante, mas não necessariamente obviamente visível, nos dados. Um grande valor no Big Data vem da recombinação de dados de diferentes fontes, ou da aproximação de dados de maneira diferente (por exemplo, comprimir dados de forma visual ou topográfica para descobrir novos padrões). Como resultado, as empresas que abrem seus dados são mais propensas a recuperar o valor desses dados, e aqueles que o fazem, obterão mais valor dos dados mais abertos e acessíveis. Esses desenvolvimentos mudarão os hábitos nas empresas, que serão impulsionados pelas forças do mercado e pela necessidade de serem mais eficientes, para abrir mais e mais conjuntos de dados e fontes de dados. Inevitavelmente, isso irá entrar em conflito com estratégias para manter a informação secreta. While it is, in theory, uncertain which way this conflict will play out, we need to be reminded again of the exponential growth of Big Data. The logical consequence of this exponential growth is that the pressure to open up is likely to be much stronger, and yield more direct benefit, than the longer term strategy to keep things secret because one day that may yield an additional benefit. In other words, it will become much harder for businesses to keep things secret, and there will be growing pressure to open up data streams. From an IP Strategy point of view, this means that understanding and selecting those intangible assets that have more value as a secret than as an open, accessible intangible asset will become more difficult, but, arguably, also more important. On the other hand, businesses that reject the knee-jerk reaction to keep as much as possible hidden or secret, may find that they evolve faster and generate more new business opportunities. It is not a coincidence that Open Innovation has become such a tremendous success. Big Data is likely to reinforce that evolution. e) Intellectual Property and value of algorithms. A point that has been touched upon repeatedly is the value of algorithms in a world of Big Data. Algorithms are the essential tools enabling businesses to make sense of, and create value out of, Big Data. Yet algorithms are not, as such, protectable under formal Intellectual Property Rights. Is this a problem for an IP Strategy Not necessarily. After all, an IP Strategy is not just about protecting or restricting access to Intellectual Capital, it is also about positive use of that Intellectual Capital to serve the strategic and operational needs of the business concerned. The financial services industry has used complex algorithms for many years, particularly in the mathematical structures known as quants the formulae used to operate in and track the highly complex mathematical environments of derivatives, online trading or future markets (not to mention the toxic products that are one of the causes of the crash of 2007-2008). Yet, many of these systems do not enjoy any formal Intellectual Property Protection. No patents are used, no copyright applies. Secrecy does apply, of course, but the market data themselves are very open and visible indeed, most of the algorithms depend on liquidity, if not of financial assets, then certainly of financial data. The pattern is similar for algorithms around Big Data. While some secrecy can be tremendously important for specific parts of algorithmic use of Big Data, the liquidity and open nature of the data themselves will often be at least as, if not more, important. To that needs to be added the need of continuous change and adaptation of such algorithms in order to have business value, algorithms need to be alive. And in order to be alive, they need to be fed those huge amounts of data for which they have been created. The analogy with bio - or ecosystems is not a coincidence. Just like biosystems thrive on resources that are freely available as a result of ecological circumstances (the energy of the sun, the oxygen in the air, etc), Big Data ecosystems are emerging and evolving, based on free(ish) availability of data and data streams. As a result, an IP Strategy towards algorithms will have to take into account their almost biological-like behavior. Clever strategies will therefore allow for processes of evolution and selection to occur and it is likely that those processes that allow free access to data will outperform, through the force of evolutionary pressure, those that do not allow such free access. It will be therefore key for any IP Strategy to look at the core algorithms that are at the heart of any business dealing with or affected by Big Data. That will be almost everybody, by the way. And such an IP Strategy will have to consider the benefits to be gained from an open approach, to the risks suffered from closing down access to that new lifeblood of the Big Data Information Age: the flow of data itself. 4. Conclusion A recurring theme throughout this article has been that the traditional view on data and their use is being challenged. That traditional view is based on making data and information artificially scarce, and trying to charge for it. Intellectual Property Rights are the most obvious ways of making non-rivalrous commodities such as ideas, technology and data artificially scarce. Yet, as an inescapable consequence of the exponential growth of Big Data, that approach is now at risk of causing more damage to businesses, rather than providing benefits. Big Data is like a river system. The value of Big Data is not in its many sources, but in gaining access to the flow, and using it for the strategic purposes of your business. A traditional IP Strategy, focusing on ownership, is in our analogy akin to focusing on claiming land a couple of miles from the river. It is looking in the wrong direction, and misses most of the value of Big Data. While some ownership of a bit of river banks (the algorithms) may have value, our Big Data River is more complex than a simple estuary it is like the Delta of the Nile overflowing regularly, where riverbanks and plots of land all of a sudden disappear or get flooded. And a new Delta comes into existence every 18 months. Therefore, as a conclusion, IP Strategies around Big Data should focus on the instruments to access and use the flow of data, rather than using outdated models of artificial scarcity that will be overtaken by the exponential growth of Big Data.
No comments:
Post a Comment