Na sequência do ChatGPT, da OpenAI, e do Bing Chat, da Microsoft, a Google reagiu com o seu próprio chatbot de Inteligência Artificial (IA) experimental: Bard.
Lançado em março de 2023 e até agora presente em mais de 180 países, o Bard tem enfrentado alguns desafios pelo caminho – sendo o mais recente o adiamento do lançamento europeu devido a questões de privacidade. Falaremos disso mais à frente.
Mas como funciona exatamente o Bard? O que o diferencia do ChatGPT que já conhecemos? Que desafios enfrenta a nível de privacidade e segurança? Como se espera que evolua no futuro? Estas são as perguntas a que responderemos ao longo deste artigo.
Funciona de forma semelhante ao ChatGPT, na medida em que é uma IA generativa que aceita pedidos (prompts) e executa tarefas de geração de texto, como escrever código, fornecer respostas, resumos e outras formas de conteúdo escrito.
A versão inicial do Google Bard era alimentada pelo modelo de linguagem LaMDA (Modelo de Linguagem para Aplicações de Diálogo), mas evoluiu recentemente para a utilização do modelo de linguagem mais avançado da Google, o PaLM 2 (Modelo de Linguagem Pathway) – diz-se que tem um melhor desempenho em tarefas de raciocínio, incluindo lógica, código e matemática.
Existem algumas diferenças fundamentais entre os dois chatbots, nomeadamente:
É esse o plano, sim. Quando a Google anunciou o lançamento do Bard, disse que o objetivo era trazer esta inovação para os seus produtos, começando pela Pesquisa.
A ideia é implementar as funcionalidades do Bard na Pesquisa, de forma a ajudar os utilizadores a consumirem informação em formatos mais digeríveis, em vez de a obterem complexificada a partir de várias fontes.
No entanto, é evidente que o Bard não se destina a substituir a Pesquisa, mas sim a complementá-la.
A Google ainda não lançou o Bard na União Europeia (UE), uma vez que a Comissão de Proteção de Dados bloqueou o seu lançamento devido a questões de privacidade. De acordo com o regulador de dados sediado em Dublin, que é a autoridade supervisora do Regulamento Geral sobre a Proteção de Dados (RGPD), a empresa tecnológica não forneceu, até agora, informações suficientes sobre a forma como o Bard protege a privacidade dos europeus.
A Google afirmou que está a abordar esta questão. "Dissemos que queríamos tornar o Bard mais amplamente disponível, incluindo na União Europeia, e que o faríamos de forma responsável após conversas com especialistas, reguladores e decisores políticos. Como parte desse processo, temos estado a falar com os reguladores de privacidade para responder às suas questões e ouvir os seus comentários”, garantiu um porta-voz.
De acordo com a Data Protection Officer (DPO) da act digital, Inés Chenouf, “a proteção dos dados pessoais continua a ser uma questão a que as empresas digitais prestam pouca atenção”. “A proteção dos dados pessoais é um elemento fundamental a ter em conta quando se fala de Inteligência Artificial. No caso específico do Bard, a invasão da privacidade pode ser uma consequência da aprendizagem automática. Por outras palavras, esta ferramenta tem a capacidade de aprender com os dados que usa, através de algoritmos, pelo que a sua aplicação pode significar a utilização indevida de dados pessoais. Isto cria atrito com o RGPD, nomeadamente com os princípios da confidencialidade e da transparência. Além disso, a utilização intensiva de dados pode levar a enviesamentos que podem afetar negativamente os utilizadores”, afirma.
Perante este cenário, a Google terá de garantir a transparência na recolha e utilização dos dados dos utilizadores, se quiser que o Bard seja lançado na UE. “Isto significa minimizar os dados, criar comités de ética e aproximar a gigante empresa americana das autoridades de controlo locais para limitar os riscos e estabelecer uma relação de confiança com os utilizadores europeus", explica Inés Chenouf. “Isto é ainda mais importante após a decisão da Comissão Europeia, a 10 de julho de 2023, de adotar uma nova decisão sobre as transferências de dados entre a UE e os EUA. É seguro dizer que os dados utilizados pela Bard podem ser transferidos para filiais nos EUA. É por isso que a proteção dos dados pessoais e, por extensão, a conformidade com o RGPD é uma questão tão fundamental”.
Do ponto de vista de cibersegurança, os chatbots como o Google Bard são muito seguros, porque não utilizam tecnologias tradicionais como o SQL, e a maioria das vulnerabilidades vem desta área. Isto significa que todas as preocupações de segurança virão de questões de privacidade.
Para as empresas, especificamente, a melhor solução para as questões de privacidade é executar a IA no local, nos seus servidores, utilizando um modelo de linguagem como este.
A palavra (em português, “Bardo”) significa “poeta” e refere-se especificamente a William Shakespeare, conhecido como “o Bardo de Avon”. O objetivo é realçar as capacidades linguísticas do chatbot.
A União Europeia aprovou recentemente o Regulamento de Inteligência Artificial, a primeira lei abrangente do mundo sobre IA. Esta lei classifica toda a IA de acordo com diferentes níveis de risco:
Na sequência do ChatGPT, da OpenAI, e do Bing Chat, da Microsoft, a Google reagiu com o seu próprio chatbot de Inteligência Artificial (IA) experimental: Bard.
Lançado em março de 2023 e até agora presente em mais de 180 países, o Bard tem enfrentado alguns desafios pelo caminho – sendo o mais recente o adiamento do lançamento europeu devido a questões de privacidade. Falaremos disso mais à frente.
Mas como funciona exatamente o Bard? O que o diferencia do ChatGPT que já conhecemos? Que desafios enfrenta a nível de privacidade e segurança? Como se espera que evolua no futuro? Estas são as perguntas a que responderemos ao longo deste artigo.
Funciona de forma semelhante ao ChatGPT, na medida em que é uma IA generativa que aceita pedidos (prompts) e executa tarefas de geração de texto, como escrever código, fornecer respostas, resumos e outras formas de conteúdo escrito.
A versão inicial do Google Bard era alimentada pelo modelo de linguagem LaMDA (Modelo de Linguagem para Aplicações de Diálogo), mas evoluiu recentemente para a utilização do modelo de linguagem mais avançado da Google, o PaLM 2 (Modelo de Linguagem Pathway) – diz-se que tem um melhor desempenho em tarefas de raciocínio, incluindo lógica, código e matemática.
Existem algumas diferenças fundamentais entre os dois chatbots, nomeadamente:
É esse o plano, sim. Quando a Google anunciou o lançamento do Bard, disse que o objetivo era trazer esta inovação para os seus produtos, começando pela Pesquisa.
A ideia é implementar as funcionalidades do Bard na Pesquisa, de forma a ajudar os utilizadores a consumirem informação em formatos mais digeríveis, em vez de a obterem complexificada a partir de várias fontes.
No entanto, é evidente que o Bard não se destina a substituir a Pesquisa, mas sim a complementá-la.
A Google ainda não lançou o Bard na União Europeia (UE), uma vez que a Comissão de Proteção de Dados bloqueou o seu lançamento devido a questões de privacidade. De acordo com o regulador de dados sediado em Dublin, que é a autoridade supervisora do Regulamento Geral sobre a Proteção de Dados (RGPD), a empresa tecnológica não forneceu, até agora, informações suficientes sobre a forma como o Bard protege a privacidade dos europeus.
A Google afirmou que está a abordar esta questão. "Dissemos que queríamos tornar o Bard mais amplamente disponível, incluindo na União Europeia, e que o faríamos de forma responsável após conversas com especialistas, reguladores e decisores políticos. Como parte desse processo, temos estado a falar com os reguladores de privacidade para responder às suas questões e ouvir os seus comentários”, garantiu um porta-voz.
De acordo com a Data Protection Officer (DPO) da act digital, Inés Chenouf, “a proteção dos dados pessoais continua a ser uma questão a que as empresas digitais prestam pouca atenção”. “A proteção dos dados pessoais é um elemento fundamental a ter em conta quando se fala de Inteligência Artificial. No caso específico do Bard, a invasão da privacidade pode ser uma consequência da aprendizagem automática. Por outras palavras, esta ferramenta tem a capacidade de aprender com os dados que usa, através de algoritmos, pelo que a sua aplicação pode significar a utilização indevida de dados pessoais. Isto cria atrito com o RGPD, nomeadamente com os princípios da confidencialidade e da transparência. Além disso, a utilização intensiva de dados pode levar a enviesamentos que podem afetar negativamente os utilizadores”, afirma.
Perante este cenário, a Google terá de garantir a transparência na recolha e utilização dos dados dos utilizadores, se quiser que o Bard seja lançado na UE. “Isto significa minimizar os dados, criar comités de ética e aproximar a gigante empresa americana das autoridades de controlo locais para limitar os riscos e estabelecer uma relação de confiança com os utilizadores europeus", explica Inés Chenouf. “Isto é ainda mais importante após a decisão da Comissão Europeia, a 10 de julho de 2023, de adotar uma nova decisão sobre as transferências de dados entre a UE e os EUA. É seguro dizer que os dados utilizados pela Bard podem ser transferidos para filiais nos EUA. É por isso que a proteção dos dados pessoais e, por extensão, a conformidade com o RGPD é uma questão tão fundamental”.
Do ponto de vista de cibersegurança, os chatbots como o Google Bard são muito seguros, porque não utilizam tecnologias tradicionais como o SQL, e a maioria das vulnerabilidades vem desta área. Isto significa que todas as preocupações de segurança virão de questões de privacidade.
Para as empresas, especificamente, a melhor solução para as questões de privacidade é executar a IA no local, nos seus servidores, utilizando um modelo de linguagem como este.
A palavra (em português, “Bardo”) significa “poeta” e refere-se especificamente a William Shakespeare, conhecido como “o Bardo de Avon”. O objetivo é realçar as capacidades linguísticas do chatbot.
A União Europeia aprovou recentemente o Regulamento de Inteligência Artificial, a primeira lei abrangente do mundo sobre IA. Esta lei classifica toda a IA de acordo com diferentes níveis de risco: