Retrospectiva de 2023: os 5 artigos mais acessados na Newsletter
Os textos que mais chamaram a atenção dos leitores neste ano
Já tenho quase 1 ano de Newsletter. Ela começou em 26 de janeiro deste ano, com a publicação do um artigo sobre os Killer Robots. Publicar semanalmente sobre um assunto que você adora é uma experiência que recomendo a todos. Não é que às vezes não seja difícil. Sempre há aquelas semanas complicadas, em que o tempo é escasso… Mas construir algo que você vai compartilhando com os outros é uma experiência das mais enriquecedoras.
Com o fim do ano, resolvi fazer uma retrospectiva dos artigos que publiquei por aqui. Nem todos conseguem acompanhar os textos semanalmente. Então, essa retrospectiva pode ser útil para dar uma ideia do que chamou mais a atenção dos leitores em 2023.
Para isso, selecionei os 5 artigos mais acessados na coluna ao longo desse ano e trago o que há de essencial para saber sobre cada um deles. Meu critério foi diferente do critério do próprio Substack que apresenta os artigos mais populares, levando em conta o número de curtidas. Curiosamente, nenhum desses artigos está na lista que apresento aqui.
Sem maiores delongas, aí vão eles.
Negociadores do Parlamento e do Conselho europeus chegaram a um acordo provisório sobre o que deve constar no texto da regulação da inteligência artificial.
As linhas gerais do texto, que ainda precisa ser votado pelo Parlamento europeu, são as seguintes.
Banimento de determinadas aplicações de IA, como (i) sistemas de categorização biométrica que utilizam dados sensíveis; (ii) scraping não direcionado de imagens faciais da Internet ou imagens de sistemas de vigilância por câmeras; (iii) reconhecimento de emoções no local de trabalho e nas instituições de ensino; (iv) score social baseado em comportamento ou características pessoais; (v) sistemas de IA que manipulam o comportamento humano; (vi ) IA que explore vulnerabilidades das pessoas (idade, deficiência, situação social ou econômica).
Quanto ao uso da IA para fins criminais: (i) a identificação biométrica remota de pessoas depende de autorização judicial prévia e é possível apenas para crimes estritamente definidos; (ii) a IA pode ser utilizada para busca de uma pessoa condenada ou suspeita de ter cometido um crime grave; (iii) a identificação biométrica remota em tempo real deve ser por período e localização limitados.
Obrigações específicas para sistemas de IA de alto risco: (i) os setores bancário e de seguros são obrigados a realizar uma avaliação de impacto aos direitos fundamentais; (ii) os cidadãos terão o direito de apresentar reclamações e receber explicações sobre as decisões.
Salvaguardas para “sistemas de IA de propósito geral”: (i) esses sistemas ficam obrigados a observar requisitos de transparência como a divulgação de resumos detalhados sobre o conteúdo utilizado no treinamento; (ii) sistemas que apresentem risco sistêmico terão que avaliar e mitigar esse riscos, realizar testes adversariais, comunicar os incidentes graves, garantir a cibersegurança e informar sobre a sua eficiência energética; (iii) até que sejam publicadas padronizações da UE, IA’s de propósito geral com risco sistêmico podem basear-se em códigos de boas práticas.
Medidas para apoiar a inovação e as micro e pequenas empresas: serão promovidos sandboxes e testes no mundo real (real-world-testing), para desenvolver e treinar aplicações inovadoras de IA antes de serem colocadas no mercado.
Sanções: multas que variam entre 35 milhões de euros ou 7% do faturamento global e 7,5 milhões ou 1,5% do faturamento.
Em 18 de agosto deste ano, o Tribunal do Distrito de Columbia, nos Estados Unidos negou o registro dos direitos autorais desta imagem, gerada por um sistema de IA chamado Creativity Machine.
O órgão responsável negou o registro por entender que se tratava de uma obra criada sem qualquer envolvimento humano. O Tribunal entendeu que essa rejeição foi correta.
O fundamento da decisão está no argumento de que não há direitos de autor para uma obra que não tenha autoria humana. Para o Tribunal Distrital, a criatividade humana está no cerne da capacidade de possuir esse direito. Sem criatividade humana, sem direitos autorais, portanto.
Com a chegada de sistemas de IA generativa, temos que compreender — e eventualmente repensar — como se dá a criação humana, buscar entender como o processo de criação da máquina acontece e em que medida ele difere do processo humano. O Tribunal dos EUA tocou nessa questão.
Pela legislação que existe hoje, a participação humana é o ponto que precisa ser avaliado. O Tribunal fala do prompt como um tipo de participação, de direcionamento. Mas que tipo de prompt seria um direcionamento suficiente?
Dentro desse modelo de criação, penso que um aspecto que surge como importante a ser avaliado é a medida de interferência humana necessária para se configurar um direito.
Um documento do Conselho de Consumidores da Noruega menciona alguns riscos importantes que a IA generativa traz para os consumidores.
Walled Garden
A IA generativa favorece que plataformas digitais sejam transformadas num ambiente que desestimula, que torna desnecessária ou difícil a saída do usuário, ou seja, um walled garden.
Um exemplo disso é o Snapchat que incluiu no seu chatbot de IA as funções de recomendar restaurantes e receitas, o que reduz a necessidade dos consumidores de recorrer a mecanismos de busca tradicionais.
O risco disso é dificultar a entrada de novos competidores, concentrando poder nos atores já estabelecidos, o que pode causar prejuízos ao mercado de consumo (art. 4, VI, CDC).
Opacidade e falta de accountability
Se o prestador de serviços não tem clareza sobre os dados e o funcionamento do modelo de IA generativa que serve como infraestrutura do app que ele oferece, a explicação do output para o consumidor fica prejudicada. Quanto maior a transparência, melhores as condições para se fornecer uma explicação.
A acountability e a explicação do resultado para os consumidores se torna um problema cada vez maior quanto maior também for a opacidade.
Personificação de modelos de IA e manipulação de sentimentos
Os modelos de IA muitas vezes são projetados para simular padrões, comportamentos e emoções humanas. Isso traz o risco da manipulação do sentimento das pessoas e, por consequência um risco de danos psicológicos, especialmente de pessoas que podem se encontrar em situação de vulnerabilidade emocional.
Pela importância que a IA já adquiriu em nossa época é que o tema da sua governança passou a ser um assunto cuja discussão vem crescendo tanto. Do final de 2022 para cá, o debate sobre a governança de IA ainda ganhou um novo impulso com o lançamento de modelos de IA generativa como o ChatGPT, o Bing e o Bard.
A capacidade desses modelos de desempenhar uma diversidade de tarefas sem serem explicitamente treinados para realizarem muitas delas permite sua rápida adoção por consumidores e empresas, o que evidentemente aumenta o risco inerente ao uso da tecnologia, o que intensifica a preocupação com a governança.
Assim, de acordo com Roberts et al., podemos listar algumas ferramentas que podem ser úteis para realizar a governança da IA. Vejamos:
As razões pelas quais a governança de IA importa e importará cada vez mais daqui para frente podem ser resumidas da seguinte forma.
O potencial de dano em larga escala dessa tecnologia.
A necessidade da construção de uma cultura de IA responsável.
A importância da governança na conformidade com a futura legislação sobre IA.
O fortalecimento da confiança das pessoas na tecnologia por meio da governança.
Por que o retorno do estoicismo hoje?
Penso que isso acontece por estarmos diante da filosofia que talvez seja a mais adequada para as pessoas que vivem na era das tecnologias de informação e comunicação (TICs), do big data e da IA.
Não é à toa que nossa época trouxe, por exemplo, o conceito de sobrecarga digital (digital overload). O estoicismo parece ajudar a lidar com coisas assim.
Vejamos o diagnóstico preciso de Naval Ravikant, um sábio da nossa época, sobre o momento que o indivíduo enfrenta atualmente:
“A luta Moderna é realmente sobre indivíduos – desconectados de sua tribo, religião e redes culturais – que estão tentando enfrentar todos esses vícios que foram transformados em armas: álcool, drogas, pornografia, alimentos processados, mídia de notícias, internet, redes sociais e videogames”.
Os filósofos mais relevantes do estoicismo produzido em Roma foram Sêneca, Epicteto e Marco Aurélio. Vejamos algumas de suas lições.
Sêneca
“Sofremos com mais frequência na imaginação do que na realidade”.
“Infeliz é o espírito ansioso pelo futuro”.
Epicteto
“Você se torna aquilo a que dá sua atenção ... se você mesmo não escolher a quais pensamentos e imagens você se expõe, outra pessoa o fará, e seus motivos podem não ser os mais elevados”.
Marco Aurélio
“Hoje escapei da ansiedade. Ou melhor, descartei-a, porque estava dentro de mim, em minhas próprias percepções - não fora”.
Ryan Holiday, um grande divulgador do estoicismo nos dias de hoje, observa que “como passamos nossas vidas depende de como passamos nossos dias e como passamos nossos dias depende de como passamos cada momento”. O problema é que a maioria de nós está ocupada demais para perceber esses momentos. Não estamos presentes. Estamos pre-ocupados.
Ao valorizar a autoanálise, o controle pelo indivíduo de sua esfera própria de preocupações, que deve ser separada do mundo que não podemos controlar, o estoicismo se apresenta como uma filosofia adequada a uma época em que o indivíduo tem dificuldade de focar, de parar, de refletir sobre si, enquanto fica ao sabor dos algoritmos e da mídia.
Na medida em que estimula o indivíduo a construir esse “muro em torno de si”, o estoicismo pode nos proteger dos excessos do mundo tecnológico.
A Newsletter para por 2 semanas. Este que vos escreve precisa recarregar as baterias :)
Nessas festas de fim de ano, que você passe bons momentos com aqueles que você ama. Essa é sempre a melhor forma de usarmos nosso bem mais valioso: o tempo. Até 2024!
[NOVA TURMA] WORKSHOP FRAMEWORKS DE IA
Dias 20 e 21/02/2024 (3ª e 4ª feira), das 19h30 às 21h30, André Gualtieri e Nuria López vão estar online e ao vivo em um workshop exclusivo que vai apresentar quatro dos principais Frameworks de IA do mercado (UE, ICO, NIST e OCDE).
Serão dois dias de muito conteúdo aprofundado e prático sobre como esses Frameworks podem ajudar você a construir a Governança de IA na sua empresa.
As vagas são limitadas, então clique aqui para se inscrever já.