À medida que os carros se tornam autónomos, até que ponto devem
responder pelas suas acções? Os computadores podem ser sujeitos de
direito? Como devem ser programados para decidir numa situação quem
salvam e quem podem sacrificar? Foi sobre estas matérias que um órgão
ligado à ONU (Organização das Nações Unidas) reuniu, em 27 de outubro,
em busca de respostas
A questão não é nova do ponto de vista da filosofia moral, mas o desenvolvimento rápido da Inteligência Artificial (IA) e das suas aplicações, na vida de todos os dias, está a tornar mais urgente que se pense e legisle em relação a isso.
A Comissão Europeia (CE) está atualmente a trabalhar na primeira legislação do mundo para regulamentar a IA em geral. A proposta em discussão aborda os riscos desta tecnologia e define obrigações claras em relação a seus usos específicos, é o chamado Artificial Intelligence Act.
No início de Outubro, foi lançada uma nova iniciativa sobre IA para Segurança Rodoviária liderada pela UIT (União Internacional das Telecomunicações), pelo enviado especial da ONU para segurança rodoviária, e pelo enviado da ONU para tecnologia. O objetivo é incentivar os esforços públicos e privados para usar tecnologias de IA que aumentem a segurança rodoviária para todos os usuários das rodovias. Estas devem ser aplicáveis a países pobres e em vias de desenvolvimento.
O custo de veículos com direção totalmente autónoma permanecerá muito alto para adoção em larga escala em países de baixa rendimento até 2030, quando as metas da ONU para reduzir pela metade as mortes nas estradas deverão ser atingidas. Mas muitos dos dados que podem ser recolhidos sobre veículos autónomos, disse, ao site da televisão pública suíça, swissinfo.ch , Bryn Balcombe, presidente do grupo temático sobre IA para direção autónoma e assistida na União Internacional de Telecomunicações (UIT), sediada em Genebra.
“É por isso que estamos realmente interessados em expandir o papel do grupo de trabalho, para começar a analisar como podemos adotar essas tecnologias, mas implantar as mais importantes e mais valiosas nesses países para termos resultados até 2030”.
O famoso dilema moral e ético da situação de acidente onde é possível salvar o condutor e atropelar peões, ou vice-versa, ganhou todo um novo campo de discussão desde que a decisão passou a poder ser tomada não apenas pelo condutor, mas pelo próprio automóvel.
Estes estudos não são novos, já em 2016, o MIT (acrónimo em inglês do Instituto de Tecnologia de Massachusetts) lançou um inquérito chamado Moral Machine, no qual perguntava a pessoas de todo o mundo que tipo de decisões os automóveis autónomos deviam tomar em situações complicadas onde tivessem que decidir “quem matar”.
A moral e os números
A questão deu bastante que falar na altura, recriando problemas hipotéticos do tipo: se um carro autónomo estiver na iminência de matar uma pessoa, deverá evitar matá-la, mesmo que para isso tenha que chocar com uma parede e potencialmente matar os ocupantes? E se em vez de uma pessoa for um grupo de crianças; ou um criminoso; ou um reputado administrador de empresas?
A questão glosa um célebre dilema moral da filosofia, chamado o “The Trolley Problem” (o problema do comboio), em que alguém teria que decidir entre várias situações em diversos cenários: ou matava cinco trabalhadores que estavam amarrados numa linha ou matava um outro que estava num ramal; ou salvava as pessoas que estavam num comboio, atirando uma pessoa gorda para a linha.
O filósofo Stevan S. Gouveia, professor da Universidade do Minho e autor de vários livros, entre os quais, “Homo Ignarus: Ética Racional para um Mundo Irracional”, explica, ao Contacto, as implicações do dilema e a sua aplicação à IA.
“ Os dilemas do trolley (comboio) ou do carro desgovernado, que foi inventada por uma filósofa a Philippa Foot, fazem pensar num cenário em que há um comboio que vai desgovernado numa linha e há cinco trabalhadores que estão ali que não podem fugir e depois há uma pessoa que pode mudar a agulha e decidir que o comboio se possa desviar para uma linha secundária onde existe apenas um trabalhador, e aí Philippa Foot pergunta-nos o que devemos fazer nesta situação? E a maior parte das pessoas decide matar essa pessoa para salvar as cinco. Mas depois o cenário tem outra possibilidade, temos também cinco pessoas que podem ser mortas, mas temos uma ponte com uma pessoa obesa ou muito forte que se for empurrada para a linha, irá salvar as cinco pessoas mas irá morrer. E nós aqui temos que tomar uma decisão. Aqui é curioso, se no primeiro cenário cerca de 90% das pessoas decidia que mudava a agulha, mas temos apenas uma minoria das pessoas que decide empurrar uma pessoa para salvar outras cinco.”
O objectivo inicial de Philippa Foot não era produzir legislação nem regras, era simplesmente “mostrar que nós somos bastante incoerentes em termos de juízos morais. Não somos bons a fazer juízos morais”, nota o filósofo.
Mas obviamente que o dilema permite pensar como proceder em relação aos carros autónomos: “é uma discussão que pode não ter uma solução filosófica ótima, mas que a maior parte dos especialistas inclina-se para uma solução pragmática: isto é pode não haver sempre a melhor solução, mas ela deve ser igual e coerente para ser aplicada a todos os produtores de automóveis autónomos. Por exemplo, os tribunais alemães avançaram recentemente que independentemente o que aconteça o carros autónomo têm sempre de travar. Numa situação de dilema têm sempre de travar”.
Embora estes casos nos permitam pensar questões práticas e implicações morais, eles são mais situações limites que acontecimentos reiterados, como nos faz notar Steven S. Gouveia: “ É importante esclarecer que este tipo de dilemas na vida real serão sempre muito poucos, e que os carros autónomos pelo contrário tenderão a diminuir a sinistralidade, liquidando o erro humano. Salvarão muito mais vidas do que as possíveis vítimas que existirão numa espécie de vazio moral de um dilema.”.
Uma posição sobre a raridade e a falta de perigo dos carros autónomos que o professor Arlindo Oliveira, especialista em IA, que dirigiu o Instituto Superior Técnico e que actualmente preside ao INESC- Instituto de Engenharia e Sistemas de Computadores, comunga.
“O problema não é novo, não tem a ver com o carro autónomo, a diferença é que a pessoa não tem tempo de reagir, enquanto um computador tem, em princípio tempo de reagir. O problema coloca-se explicitamente porque temos de programar e definir essas situações e as fronteiras são muito ténues, mas na prática até se trata de um avanço, porque, neste momento, quando se dá uma situação de uma pessoa com carro, ela vai pela ribanceira abaixo ou atropela uma pessoa, porque não tem tempo para tomar uma reação racional. Agora , com as máquinas, trata-se de aplicar as regras que nós gostaríamos que fossem seguidas – como estão no estudo publicado pelo MIT na revista “Nature” – e programar os carros para que essas regras sejam cumpridas, para tomarem as melhores opções em geral. Em princípio, isso vai salvar vidas.”, explicou ao Contacto.
Os resultados desse estudo, de 2016, publicado na revista “Nature” são curiosos e mostram que as conclusões morais das pessoas não estão separadas dos contextos sociais e das vivências nos diversos países. Se por um lado, confirmam uma tendência moral global de dar prioridade às vidas humanas face à vida de animais, valorizar os grupos de pessoas em contraponto aos indivíduos, e proteger prioritariamente as crianças.
Por outro lado, há diferenças regionais. Nos países mais ricos, as pessoas tendem a preferir salvar uma pessoa com estatuto elevado face a um “mendigo”; nos países mais pobres essa tendência inverte-se.
São resultados que deverão ser analisados em detalhe, já que será inevitável que, por iniciativa própria dos fabricantes destes sistemas, ou por legislação, este tipo de questões tenha que ser considerada na programação dos carros.
Recorde-se que a primeira ideia de leis que condicionariam o funcionamento de máquinas autónomas nasceram nas páginas da literatura. As três leis da robótica são, na verdade, três regras idealizadas pelo escritor Isaac Asimov a fim de permitir o controle e limitar os comportamentos dos robôs que este dava vida nos seus livros de ficção científica.
As três diretivas que Asimov fez implantarem-se nos “cérebros positrônicos” dos robôs dos seus livros são:
1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, excepto nos casos em que entrem em conflito com a Primeira Lei.
3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
Na realidade e em termos de automóveis autónomos, até 2016, o único país que já tinha legislado sobre isto era Alemanha, em que o legislador considerou que todas as vidas devem ser consideradas como tendo valor igual, e que por isso não será admissível que um carro escolhesse salvar um rico face a um pobre.
Mas de igual modo, a legislação alemã sobre o tema também prevê que o veículo autónomo não daria prioridade a salvar uma criança face a matar uma pessoa mais velha.
Em relação, a se o carro deve salvar os ocupantes ou pessoas exteriores as leis ainda não são claras, mas a Mercedes já tinha deixado muito expressa a sua escolha comercial: os seus futuros veículos autónomos vão salvar os condutores (e sacrificar os peões), uma opção que contentará apenas aqueles que dão dinheiro à empresa e condenará os demais cidadãos.
A moral faz a lei?
No novo estudo realizado pela a ONU, no final de Outubro, pretende-se ir mais além, tentar não só determinar as balizas éticas para a legislação para este tipo de veículos, mas também apurar quem tem responsabilidades sobre possíveis desastres. É possível culpabilizar as máquinas ou apenas se elas tiverem consciência?
“Escrevi um livro sobre esse assunto, chamado ’Homo Ignarus, Ética Racional para um Mundo Irracional’, em que analiso que nós, nos nossos códigos jurídicos e mesmo em termos de senso comum, adaptamos a ideia em que um ser é um sujeito de direito apenas se for consciente. E nós sabemos que hoje em dia grande parte dos robôs e tecnologia que usamos não são conscientes, e , por isso, nós dizemos logo à partida que é absurdo responsabilizar uma máquina que fabrica um carro, porque não faz sentido nenhum, o operador dessas máquina é que deve ser responsabilizado se alguma coisa acontecer com essa máquina.”, explica Steven S. Gouveia, acrescentando que isso, devido ao desenvolvimento tecnológico não deve ser sempre assim, “nós temos que fazer um salto meta-ético: passar de uma ética da consciência, para uma ética da não consciência, em que o que importa é que se uma determinada acção tem alguma consequência ética. Então deve ser julgada moralmente, independentemente do que seja o autor. Se esse actor, e isso é que é importante, tiver uma autonomia suficientemente razoável – nós sabemos que os seres humanos têm uma autonomia razoável e sabemos que a tecnologia caminha para essa autonomia razoável- independentemente dela ser consciente ou não, devemos pensar em formas de responsabilizar também a própria tecnologia.”.
Para o filósofo isso passa por ter uma ideia de uma responsabilidade partilhada. “Defendo um conceito a que chamo de responsabilidade distribuída. Nós não vamos deixar de atribuir responsabilidade a actores específicos, mas vamos também passar a atribuir responsabilidade a redes de actores. Dando o exemplo do carro autónomo: não será só o carro autónomo que será responsabilizado, será também quem o produz, quem permite que ele possa existir e circular, ou seja os governos, será também quem o pensou e se a tecnologia demonstrar que comete demasiados erros, para além de responsabilizar, é preciso colocar a questão de que será que esta tecnologia faz sentido continuar a existir.”
No entanto, esta evolução jurídica encontra-se praticamente congelada, devido à maioria dos responsáveis políticos acharem que a autonomia das máquinas não é suficiente para lhes atribuir responsabilidade. O que não implica que seja um conceito em debate.
“A questão do direito e da sua aplicação dele às máquinas tem sido muito discutida, houve um relatório do Parlamento Europeu, salvo erro de 2016, em que se levantam os direitos e dos deveres das máquinas. Esse relatório não teve seguimento nos documentos mais recentes da Comissão Europeia, que ignoram essa questão. Nós, no IST, temos um grupo de trabalho com a Faculdade de Direito da Universidade Católica em que temos discutido muito estas questões. Neste momento, o entendimento generalizado é que é prematuro considerar esses sistemas como sujeitos autónomos de direito, como as pessoas. A filosofia dominante é que os sistemas são ferramentas e não são sujeitos de direito.”, conta o professor Arlindo Oliveira.
Mas este entendimento dominante pode mudar com o progresso da própria tecnologia. “Estão-se a fazer avanços significativos sobre o que é a consciência, e eventualmente no futuro vamos ter a possibilidade de criar máquinas conscientes, em primeiro lugar é um problema antigo que não tem uma resolução óbvia e passa até pela definição do que é a consciência. Não é algo que é possível imediatamente, e podemos até chegar à conclusão que mesmo que possamos criar máquinas conscientes, não as queremos criar. Finalmente, se criarmos máquinas conscientes a questão legal e a questão do direito é uma questão relevante, mas há outras questões também relevantes se temos o direito de as criar e de as desligar”, defende.
O grupo temático que tem reunido, nos últimos meses em Genebra, inclui cerca de 350 participantes internacionais representando a indústria automóvel, de telecomunicações, universidades e os órgãos reguladores. Estão a elaborar uma proposta para uma norma técnica internacional, uma recomendação da UIT, para o monitorização do comportamento dos veículos autónomos na estrada.
O projeto de norma do grupo visa apoiar os regulamentos internacionais e os requisitos técnicos que os órgãos da Comissão Económica para a Europa da ONU (UNECE) são responsáveis pela atualização dos veículos autónomos.
O grupo apresentará sua proposta à UIT no início do próximo ano, quando o órgão internacional decidirá se deve transformá-la em uma recomendação, que poderá então ser tomada como referência pelos reguladores dos vários países.
A pressa está directamente ligada ao desenvolvimento rápido deste tipo de veículos e da convicção da indústria e da UIT que a Inteligência Artificial pode reduzir em muito as mortes nas estradas.
A UIT, que inclui 193 países-membros e mais de 900 empresas privadas, universidades e outras organizações, espera convencer a ONU das virtudes das suas ideias e da própria inteligência artificial.
Mas todas as tecnologias comportam os seus perigos. Ao mesmo tempo que se discutem e produzem carros autónomos, já existem armas autónomas, como drones, que podem actuar sem monitorização humana. O que leva a muita gente pretender exercer um princípio de precaução em relação ao desenvolvimento da IA.
Angela Müller, gerente da AlgorithmWatch Suíça, uma organização sem fins lucrativos que monitora sistemas de IA e seu impacto na sociedade, defende, num depoimento à swissinfo.ch, que partes da narrativa, de organizações como a UIT, tendem a desviar o debate da necessidade de haver estruturas de controle dos limites para a IA. “Quando se opta por usar uma narrativa, de que a IA salvará o mundo, então a solução será apenas investir na investigação e produção da IA”, sem colocar as devidas perguntas.
A transparência sobre como os sistemas de condução baseados em IA funcionam é fundamental para se ter um debate público baseado em fatos. É por isso que Müller saúda investigações abertas ao público e que se concentra em explicar como os sistemas de IA tomam decisões e qual é seu impacto sobre os seres humanos.
É uma situação que está longe de se limitar apenas aos carros autónomos. Está provado que os algoritmos das redes sociais têm tido um efeito perverso em relação aos crescimento de discursos do ódio na sociedade e as grandes empresas tecnológicas têm mostrado uma grande aversão em tornar essas escolhas de programação dos algoritmos abertas e escrutináveis.
Controlar democratimente a tecnologia
João Jerónimo Machadinha Maia fez o doutoramento com uma tese sobre “Transumanismo e pós-humanismo: descodificação política de uma problemática contemporânea”, e explica que o avanço tecnológico não é independente das relações de poder nas sociedades em que acontece. E que a vontade de regulação ética e moral não é sempre a mesma e afronta necessariamente grupos poderosos.
“Uma coisa é falarmos do que é desejável outra coisa é falarmos do que é provável. O avanço tecnológico e científico nem sempre caminha de mãos dadas com a ética e com a própria moral. Há pressões de caracter social, económico e político para o desenvolvimento de certo tipo de tecnologias. Hoje já assistimos a determinados desenvolvimentos que são muito discutíveis não só do ponto de vista ético ou moral, mas até do ponto de vista jurídico, segundo a lei ou direito internacional. Veja-se o que está a acontecer com os drones em operações militares. Muitas vezes para além de atingirem alvos militares atingem civis. Mas quem fala dos drones pode falar de outros avanços científicos e tecnológicos que têm vindo a servir apenas alguns grupos sociais e humanos, não servindo a humanidade ou a sociedade na sua generalidade, e nessa medida causam fracturas e desigualdades sociais muito significativas, como no campo da terapêutica e da saúde.”
Para o investigador é necessário que a tecnologia possa ter um controle democrático e que o seu desenvolvimento não escape aos humanos.
“É fundamental que a inteligência artificial se mantenha dentro do
controle humano. Um drone não tem um senso de moral como nós seres
humanos temos. Por muito sofisticados que sejam , há um determinado grau
de automatismo no seu funcionamento que não se coaduna com a nossa
moral e o nosso juízo. Nessa medida, há determinado tipo de princípios
que já estão a ser delineados que têm a ver com o controlo e com a
reversibilidade, de modo que não haja coisas que escapem ao controlo da
sociedade humana.”, alerta João Maia.
/ 13.11.2021
por Nuno RAMOS DE ALMEIDA