Spain – Generative artificial intelligence in the legal sector

30 Luglio 2024

  • Spagna
  • Intelligenza artificiale

Generative artificial intelligence (generative AI) is a variant of artificial intelligence aimed at creating models capable of generating new and original content. These models are trained to learn patterns and features from data sets, and can then generate similar or even completely new content based on those learned patterns.

A specific type of generative model is the generative neural network (GAN). GANs consist of two neural networks, one generative and one discriminative, working together. The generative network creates new content, while the discriminative network evaluates the authenticity of that content. The generative model can produce increasingly realistic results as these networks compete and improve.

Generative AI has applications in various areas, such as art creation, creative text generation, speech synthesis, and so on. It is also used in fields such as image enhancement and machine translation. This approach has advanced significantly in recent years and continues to be an active area of research in artificial intelligence.

Generative artificial intelligence applied to the legal sector involves using generative models to assist in various tasks and processes related to legal practice.

Positive aspects of generative AI applied to the legal sector

The integration of generative artificial intelligence in the legal field has emerged as a transformative catalyst, providing a number of significant benefits that positively impact the efficiency, accuracy, and accessibility of legal services. Throughout this evolution, several aspects highlight the substantial contribution of artificial intelligence to legal practice.

Some of these benefits are highlighted below:

Legal Document Drafting

Generative AI can be used to draft legal documents, contracts and other legal texts. It can generate content based on patterns learned from large sets of legal data, facilitating the creation of standard documents and reducing the workload for legal professionals, also ensuring consistency and accuracy in legal drafting, reducing risks associated with possible human errors.

Analysis of large volumes of data

The ability to process information at a speed and scale that surpasses human abilities enables the identification of patterns, trends and precedents with greater speed and accuracy. This advanced analysis helps strengthen legal arguments, improve strategic decision-making and provide clients with stronger legal representation.

Improved legal research

Generative artificial intelligence systems can perform faster and more accurate searches of legal databases, law libraries and case law. This streamlines the legal research process, providing professionals with access to relevant information more efficiently.

Legal Argument Generation

Generative IA can help generate sound legal arguments. By understanding case law and legal principles, it can help lawyers build better arguments and develop strategies for specific cases.

Automated Legal Advice

Automated legal advice systems can be developed that use generative AI to answer common legal questions and provide basic guidance. This could be useful for simpler legal queries and to improve access to legal information.

Personalized legal advice

Artificial intelligence can analyze case-specific data and provide personalized legal advice. This helps legal professionals make more informed and strategic decisions by considering situation-specific factors.

Legal Scenario Simulation

Generative AI can simulate legal scenarios to help lawyers evaluate possible outcomes and risks in particular cases. This could be useful in strategic decision-making and legal planning.

Automation of repetitive tasks

The ability of artificial intelligence systems to take on the workload related to standard document review and basic information management allows legal professionals to focus on more complex and strategic issues. This automation not only saves time but also decreases the likelihood of human error, thus strengthening the overall quality of legal work.

Optimization of internal processes

Artificial intelligence can significantly improve efficiency in case management, meeting scheduling, and other day-to-day operations in law firms. This optimization not only streamlines internal practices but also enables more efficient resource allocation and more effective workload management.

In short, the application of generative artificial intelligence in the legal sector transcends the mere automation of tasks, encompassing fundamental aspects that improve the quality and efficiency of legal services. From the automation of routine tasks to advanced data analysis and document generation, artificial intelligence is a powerful ally that drives positive developments in legal practice. This advancement not only improves the internal efficiency of law firms, but also strengthens the ability of legal professionals to provide accurate and strategic advice in an ever-changing legal environment.

While generative AI offers many possibilities, its implementation in the legal sector must be approached cautiously to ensure accuracy, ethics, and compliance with applicable laws and regulations. Human intervention and legal oversight remain essential to ensure quality and accountability in using these technologies.

Negative aspects of the application of generative AI to the legal sector

While promising, the integration of generative artificial intelligence in the legal sector poses a number of challenges and negative aspects that require attention and careful consideration. Despite significant advances in automation and process improvement, addressing the following adverse aspects is crucial to ensure an ethical and effective implementation.

Lack of human discernment

Although artificial intelligence systems can analyze data at impressive speed, they lack human understanding and sensitivity. Interpreting legal nuances, understanding emotional contexts, and making decisions based on ethics are skills intrinsic to legal professionals. Over-reliance on technology in interpreting complex situations could result in inadequate or insensitive assessments.

Risk of algorithmic bias

Algorithms used in generative artificial intelligence are trained on historical data, and if that data contains cultural, ethnic, or gender biases, the results generated may reflect and perpetuate those biases. This raises ethical and legal concerns, as automated decisions could be inherently discriminatory, affecting fairness and justice in the legal system.

Data security and privacy

The implementation of artificial intelligence in the legal field involves handling highly confidential information. Systems’ vulnerability to cyber attacks could expose sensitive data, compromising the confidentiality and integrity of the legal system. Good protection against cyber threats is essential to maintaining confidence in these technologies.

Job displacement

As artificial intelligence takes over routine and repetitive tasks, there is a risk that certain jobs in the legal sector will be affected. This raises questions about role restructuring and the need for legal professionals to acquire new skills to adapt to a changing work environment. The ethics of this displacement and measures to mitigate its impacts must be carefully addressed.

Ethical complexity in decision making

Generative artificial intelligence algorithms often operate opaquely, meaning that the logic behind their decisions can be difficult to understand or explain. This raises ethical questions about accountability and transparency in legal decision-making, especially in critical cases where a clear explanation of decisions is critical.

Costs associated with implementation

From initial development to ongoing training and system maintenance, law firms, especially smaller ones, can face significant financial challenges. This raises the issue of equity in access to these technologies and the need to seek solutions that do not perpetuate inequities in the legal system.

Cultural resistance and adaptation

Cultural resistance and adaptation are factors that should not be overlooked. The introduction of generative artificial intelligence may encounter resistance among legal professionals who may be reluctant to rely on emerging technologies. Organizational culture and acceptance of these tools may require time and effort for successful implementation. Training and effective communication are essential to overcome these barriers.

In conclusion, the application of generative artificial intelligence in the legal sector, while offering significant benefits, is not without its challenges. Addressing the lack of human discernment, mitigating the risk of algorithmic bias, ensuring data security and privacy, managing labor displacement, addressing ethical complexity in decision making, and managing associated costs are imperative for ethical and effective implementation. Careful thought and appropriate regulation are essential to harness the benefits of artificial intelligence without compromising fundamental principles of fairness and justice in the legal system.

I veicoli a guida autonoma reagiscono in una frazione di secondo, ovvero più rapidamente del più attento guidatore. I veicoli autonomi non sono mai stanchi, deconcentrati o aggressivi, non hanno preoccupazioni o problemi legati alla quotidianità, non soffrono la fame né hanno mai mal di testa. I veicoli autonomi non bevono alcol e non si mettono mai in viaggio sotto l’effetto di droghe. In breve, se vietassimo subito la guida manuale, gli incidenti causati dall’errore umano sarebbero solo un ricordo del passato. Non è forse così? Ciò sarebbe vero, se non fossero recentemente giunte notizie di due decessi durante il collaudo di un veicolo autonomo (UBER) e durante il viaggio su autostrada di un autoveicolo parzialmente automatizzato con sistema anti-sbandamento (Tesla). Entrambi gli incidenti sono avvenuti nel marzo 2018 negli Stati Uniti. Nel caso di Tesla non è ancora chiarito se l’assistente di guida semiautomatico fosse attivo al momento dell’incidente.

Ogni giorno in tutto il mondo muoiono esseri umani a causa di distrazioni nel traffico stradale, e il 90% di tutti gli incidenti è imputabile a un errore umano, mentre solo una minima parte ha come causa un problema tecnico dell’autoveicolo. Ma, nonostante gli errori umani, non vietiamo di guidare. Due incidenti mortali che hanno visto coinvolti veicoli a guida autonoma in fase di collaudo, invece, hanno attirato l’attenzione mediatica di tutto il mondo, e hanno fatto sorgere dubbi sullo sviluppo tecnico di un’industria, che sta facendo passi da gigante. I veicoli autonomi sono soltanto una moda, oppure una tendenza ormai inarrestabile?

Per molti osservatori, l’idea di un’auto del futuro completamente autonoma, in grado di guidarsi da sola senza conducente, è fonte di disagio. E certamente i due recenti decessi negli Stati Uniti causati da veicoli (parzialmente) autonomi hanno contribuito a diffondere questa paura. Da un punto di vista giuridico, però, per i soggetti che hanno subito il danno è indifferente se la causa di un incidente sia una persona distratta oppure una tecnologia che non funziona in maniera adeguata. Se ciononostante viene fatta una distinzione, è probabilmente perché un errore umano rappresenta un incidente isolato, mentre il mancato funzionamento ovvero il difetto di una tecnologia costituisce – come è comprensibilmente giusto ritenere – un difetto che concerne il sistema o la serie di una tecnologia esistente in un determinato momento.

Dal punto di vista giuridico, un difetto tecnico rappresenta di solito anche un difetto di costruzione che riguarda tutta la serie di un modello di automobile. Solitamente, quando si verificano decessi dovuti a errori di software, la gente perde di colpo la fiducia in altri veicoli dotati del medesimo software difettoso. Mentre se un conducente ubriaco ferisce o uccide qualcuno in un incidente stradale non si concluderà che tutti gli altri conducenti, o la maggior parte di essi, siano guidatori potenzialmente ubriachi.

La domanda fondamentale per tutti gli sviluppi tecnologici è la seguente: vogliamo i veicoli autonomi?

Quando parliamo di veicoli autonomi o di auto senza guidatore intendiamo macchine guidate da computer. Al giorno d’oggi l’utilizzo di computer di bordo nel settore del trasporto aereo è una pratica ormai diffusa: i piloti conducono aeromobili senza dover costantemente tenere le mani sulla cloche e – “nonostante” ciò – da un punto di vista statistico, gli aerei sono il mezzo di trasporto più sicuro. Non potrebbe l’automobile diventare altrettanto sicura? Paragonare gli aeroplani alle automobili non è però corretto, sia in base ai diversi gruppi di utenti, sia per il numero di aerei pilotati ogni giorno, sia a causa del costante pericolo d’imminente collisione con altri partecipanti al traffico stradale, ivi inclusi i pedoni.

Mentre i sistemi di assistenza alla guida riscontrabili in diversi modelli diffusi di autoveicoli – come il sistema anti-sbandamento, l’assistenza al parcheggio o al mantenimento della distanza di sicurezza – sono fondamentalmente consentiti e vengono ammessi in Europa, la legislazione attualmente in vigore in Europa e in Austria prevede l’uso di veicoli (parzialmente) autonomi esclusivamente ai fini di un collaudo. Inoltre, i collaudi su strada in Austria possono essere effettuati solo su autostrade ovvero con navette nel traffico urbano seguendo percorsi specificamente contrassegnati (come avviene per i collaudi con minibus nelle città di Salisburgo e Velden); inoltre deve sempre trovarsi a bordo del veicolo una persona, che deve potere prontamente intervenire in caso di incidente imminente, al fine di correggere un errore di guida del computer ovvero per riassumere il controllo (umano) del veicolo.

Anche la normativa degli Stati federali americani che consentono i collaudi su strada prevede (per il momento ancora) che debbano trovarsi all’interno del veicolo delle persone (la California ha annunciato, prima degli incidenti summenzionati, una legge che renderà obsoleta la presenza di un essere umano in vettura). Si pongono perciò tre quesiti riguardo all’incidente di UBER durante il collaudo su strada in Arizona, che ha visto la collisione con una ciclista e il decesso di quest’ultima: 1. la persona che per ragioni di sicurezza si trovava all’interno del veicolo avrebbe potuto azionare un freno di emergenza e con ciò impedire la collisione con la ciclista che all’improvviso attraversava la strada? 2. Per quali ragioni i sensori incorporati nel veicolo non hanno riconosciuto per tempo la ciclista? 3. Come mai l’autovettura non ha rispettato il limite di velocità previsto dalla legge?

Attualmente vengono collaudati sistemi di guida sia in Europa che negli Stati Uniti. In questi ultimi, i collaudi sono possibili anche sulle strade statali e nel traffico urbano. Fintanto che saremo ancora nelle fasi di collaudo, non si può parlare di sistemi di guida tecnicamente provati, e ancor meno ufficialmente autorizzati. Lo sviluppo tecnico dei veicoli autonomi mostra tuttavia chiaramente sin da ora che la responsabilità giuridica si sposterà sempre di più dai conducenti ai costruttori dei veicoli e ai creatori di software.

Se e quando i veicoli autonomi costituiranno un fenomeno di massa dipende pertanto in modo essenziale da determinate questioni (future): gli esseri umani possono legittimamente aspettarsi una sicurezza assoluta dei veicoli autonomi? Inoltre, che decisioni prenderanno i veicoli autonomi nel caso in cui, ad esempio, una vita umana possa essere salvata solo sacrificandone un’altra, e in che modo si può risolvere tale dilemma?

Anche nel momento in cui l’intelligenza artificiale (IA) e i sistemi di apprendimento automatico faranno il loro ingresso nella tecnologia dei veicoli autonomi, ciò che ne risulterà saranno forse “robot umanoidi su quattro ruote” ma non saranno comunque paragonabili ad un individuo dotato di determinati valori e principi morali. Mentre ogni essere umano in una specifica situazione di incidente è personalmente responsabile del proprio comportamento messo in atto in maniera solitamente intuitiva, diventano evidenti i confini del nostro sistema giuridico nel momento in cui gli algoritmi ricavati da enormi quantità di dati prendono già in anticipo decisioni in merito a una futura situazione di incidente, le quali difficilmente possono essere attribuite a una determinata persona ovvero a un creatore di software nel caso di un veicolo autonomo. Sarà compito di noi giuristi prestare assistenza legale al legislatore nel suo sforzo di far fronte a queste sfide.

Javier Gaspar Álvarez-Novoa

Aree di attività

  • Arte
  • Contratti
  • Diritto societario
  • Recupero credito
  • Investimenti stranieri

Scrivi a Javier





    Leggi la privacy policy di Legalmondo.
    Questo sito è protetto da reCAPTCHA e si applicano le Norme sulla privacy e i Termini di servizio di Google.

    Veicoli a guida autonoma in viaggio verso il diritto

    15 Maggio 2018

    • Intelligenza artificiale

    Generative artificial intelligence (generative AI) is a variant of artificial intelligence aimed at creating models capable of generating new and original content. These models are trained to learn patterns and features from data sets, and can then generate similar or even completely new content based on those learned patterns.

    A specific type of generative model is the generative neural network (GAN). GANs consist of two neural networks, one generative and one discriminative, working together. The generative network creates new content, while the discriminative network evaluates the authenticity of that content. The generative model can produce increasingly realistic results as these networks compete and improve.

    Generative AI has applications in various areas, such as art creation, creative text generation, speech synthesis, and so on. It is also used in fields such as image enhancement and machine translation. This approach has advanced significantly in recent years and continues to be an active area of research in artificial intelligence.

    Generative artificial intelligence applied to the legal sector involves using generative models to assist in various tasks and processes related to legal practice.

    Positive aspects of generative AI applied to the legal sector

    The integration of generative artificial intelligence in the legal field has emerged as a transformative catalyst, providing a number of significant benefits that positively impact the efficiency, accuracy, and accessibility of legal services. Throughout this evolution, several aspects highlight the substantial contribution of artificial intelligence to legal practice.

    Some of these benefits are highlighted below:

    Legal Document Drafting

    Generative AI can be used to draft legal documents, contracts and other legal texts. It can generate content based on patterns learned from large sets of legal data, facilitating the creation of standard documents and reducing the workload for legal professionals, also ensuring consistency and accuracy in legal drafting, reducing risks associated with possible human errors.

    Analysis of large volumes of data

    The ability to process information at a speed and scale that surpasses human abilities enables the identification of patterns, trends and precedents with greater speed and accuracy. This advanced analysis helps strengthen legal arguments, improve strategic decision-making and provide clients with stronger legal representation.

    Improved legal research

    Generative artificial intelligence systems can perform faster and more accurate searches of legal databases, law libraries and case law. This streamlines the legal research process, providing professionals with access to relevant information more efficiently.

    Legal Argument Generation

    Generative IA can help generate sound legal arguments. By understanding case law and legal principles, it can help lawyers build better arguments and develop strategies for specific cases.

    Automated Legal Advice

    Automated legal advice systems can be developed that use generative AI to answer common legal questions and provide basic guidance. This could be useful for simpler legal queries and to improve access to legal information.

    Personalized legal advice

    Artificial intelligence can analyze case-specific data and provide personalized legal advice. This helps legal professionals make more informed and strategic decisions by considering situation-specific factors.

    Legal Scenario Simulation

    Generative AI can simulate legal scenarios to help lawyers evaluate possible outcomes and risks in particular cases. This could be useful in strategic decision-making and legal planning.

    Automation of repetitive tasks

    The ability of artificial intelligence systems to take on the workload related to standard document review and basic information management allows legal professionals to focus on more complex and strategic issues. This automation not only saves time but also decreases the likelihood of human error, thus strengthening the overall quality of legal work.

    Optimization of internal processes

    Artificial intelligence can significantly improve efficiency in case management, meeting scheduling, and other day-to-day operations in law firms. This optimization not only streamlines internal practices but also enables more efficient resource allocation and more effective workload management.

    In short, the application of generative artificial intelligence in the legal sector transcends the mere automation of tasks, encompassing fundamental aspects that improve the quality and efficiency of legal services. From the automation of routine tasks to advanced data analysis and document generation, artificial intelligence is a powerful ally that drives positive developments in legal practice. This advancement not only improves the internal efficiency of law firms, but also strengthens the ability of legal professionals to provide accurate and strategic advice in an ever-changing legal environment.

    While generative AI offers many possibilities, its implementation in the legal sector must be approached cautiously to ensure accuracy, ethics, and compliance with applicable laws and regulations. Human intervention and legal oversight remain essential to ensure quality and accountability in using these technologies.

    Negative aspects of the application of generative AI to the legal sector

    While promising, the integration of generative artificial intelligence in the legal sector poses a number of challenges and negative aspects that require attention and careful consideration. Despite significant advances in automation and process improvement, addressing the following adverse aspects is crucial to ensure an ethical and effective implementation.

    Lack of human discernment

    Although artificial intelligence systems can analyze data at impressive speed, they lack human understanding and sensitivity. Interpreting legal nuances, understanding emotional contexts, and making decisions based on ethics are skills intrinsic to legal professionals. Over-reliance on technology in interpreting complex situations could result in inadequate or insensitive assessments.

    Risk of algorithmic bias

    Algorithms used in generative artificial intelligence are trained on historical data, and if that data contains cultural, ethnic, or gender biases, the results generated may reflect and perpetuate those biases. This raises ethical and legal concerns, as automated decisions could be inherently discriminatory, affecting fairness and justice in the legal system.

    Data security and privacy

    The implementation of artificial intelligence in the legal field involves handling highly confidential information. Systems’ vulnerability to cyber attacks could expose sensitive data, compromising the confidentiality and integrity of the legal system. Good protection against cyber threats is essential to maintaining confidence in these technologies.

    Job displacement

    As artificial intelligence takes over routine and repetitive tasks, there is a risk that certain jobs in the legal sector will be affected. This raises questions about role restructuring and the need for legal professionals to acquire new skills to adapt to a changing work environment. The ethics of this displacement and measures to mitigate its impacts must be carefully addressed.

    Ethical complexity in decision making

    Generative artificial intelligence algorithms often operate opaquely, meaning that the logic behind their decisions can be difficult to understand or explain. This raises ethical questions about accountability and transparency in legal decision-making, especially in critical cases where a clear explanation of decisions is critical.

    Costs associated with implementation

    From initial development to ongoing training and system maintenance, law firms, especially smaller ones, can face significant financial challenges. This raises the issue of equity in access to these technologies and the need to seek solutions that do not perpetuate inequities in the legal system.

    Cultural resistance and adaptation

    Cultural resistance and adaptation are factors that should not be overlooked. The introduction of generative artificial intelligence may encounter resistance among legal professionals who may be reluctant to rely on emerging technologies. Organizational culture and acceptance of these tools may require time and effort for successful implementation. Training and effective communication are essential to overcome these barriers.

    In conclusion, the application of generative artificial intelligence in the legal sector, while offering significant benefits, is not without its challenges. Addressing the lack of human discernment, mitigating the risk of algorithmic bias, ensuring data security and privacy, managing labor displacement, addressing ethical complexity in decision making, and managing associated costs are imperative for ethical and effective implementation. Careful thought and appropriate regulation are essential to harness the benefits of artificial intelligence without compromising fundamental principles of fairness and justice in the legal system.

    I veicoli a guida autonoma reagiscono in una frazione di secondo, ovvero più rapidamente del più attento guidatore. I veicoli autonomi non sono mai stanchi, deconcentrati o aggressivi, non hanno preoccupazioni o problemi legati alla quotidianità, non soffrono la fame né hanno mai mal di testa. I veicoli autonomi non bevono alcol e non si mettono mai in viaggio sotto l’effetto di droghe. In breve, se vietassimo subito la guida manuale, gli incidenti causati dall’errore umano sarebbero solo un ricordo del passato. Non è forse così? Ciò sarebbe vero, se non fossero recentemente giunte notizie di due decessi durante il collaudo di un veicolo autonomo (UBER) e durante il viaggio su autostrada di un autoveicolo parzialmente automatizzato con sistema anti-sbandamento (Tesla). Entrambi gli incidenti sono avvenuti nel marzo 2018 negli Stati Uniti. Nel caso di Tesla non è ancora chiarito se l’assistente di guida semiautomatico fosse attivo al momento dell’incidente.

    Ogni giorno in tutto il mondo muoiono esseri umani a causa di distrazioni nel traffico stradale, e il 90% di tutti gli incidenti è imputabile a un errore umano, mentre solo una minima parte ha come causa un problema tecnico dell’autoveicolo. Ma, nonostante gli errori umani, non vietiamo di guidare. Due incidenti mortali che hanno visto coinvolti veicoli a guida autonoma in fase di collaudo, invece, hanno attirato l’attenzione mediatica di tutto il mondo, e hanno fatto sorgere dubbi sullo sviluppo tecnico di un’industria, che sta facendo passi da gigante. I veicoli autonomi sono soltanto una moda, oppure una tendenza ormai inarrestabile?

    Per molti osservatori, l’idea di un’auto del futuro completamente autonoma, in grado di guidarsi da sola senza conducente, è fonte di disagio. E certamente i due recenti decessi negli Stati Uniti causati da veicoli (parzialmente) autonomi hanno contribuito a diffondere questa paura. Da un punto di vista giuridico, però, per i soggetti che hanno subito il danno è indifferente se la causa di un incidente sia una persona distratta oppure una tecnologia che non funziona in maniera adeguata. Se ciononostante viene fatta una distinzione, è probabilmente perché un errore umano rappresenta un incidente isolato, mentre il mancato funzionamento ovvero il difetto di una tecnologia costituisce – come è comprensibilmente giusto ritenere – un difetto che concerne il sistema o la serie di una tecnologia esistente in un determinato momento.

    Dal punto di vista giuridico, un difetto tecnico rappresenta di solito anche un difetto di costruzione che riguarda tutta la serie di un modello di automobile. Solitamente, quando si verificano decessi dovuti a errori di software, la gente perde di colpo la fiducia in altri veicoli dotati del medesimo software difettoso. Mentre se un conducente ubriaco ferisce o uccide qualcuno in un incidente stradale non si concluderà che tutti gli altri conducenti, o la maggior parte di essi, siano guidatori potenzialmente ubriachi.

    La domanda fondamentale per tutti gli sviluppi tecnologici è la seguente: vogliamo i veicoli autonomi?

    Quando parliamo di veicoli autonomi o di auto senza guidatore intendiamo macchine guidate da computer. Al giorno d’oggi l’utilizzo di computer di bordo nel settore del trasporto aereo è una pratica ormai diffusa: i piloti conducono aeromobili senza dover costantemente tenere le mani sulla cloche e – “nonostante” ciò – da un punto di vista statistico, gli aerei sono il mezzo di trasporto più sicuro. Non potrebbe l’automobile diventare altrettanto sicura? Paragonare gli aeroplani alle automobili non è però corretto, sia in base ai diversi gruppi di utenti, sia per il numero di aerei pilotati ogni giorno, sia a causa del costante pericolo d’imminente collisione con altri partecipanti al traffico stradale, ivi inclusi i pedoni.

    Mentre i sistemi di assistenza alla guida riscontrabili in diversi modelli diffusi di autoveicoli – come il sistema anti-sbandamento, l’assistenza al parcheggio o al mantenimento della distanza di sicurezza – sono fondamentalmente consentiti e vengono ammessi in Europa, la legislazione attualmente in vigore in Europa e in Austria prevede l’uso di veicoli (parzialmente) autonomi esclusivamente ai fini di un collaudo. Inoltre, i collaudi su strada in Austria possono essere effettuati solo su autostrade ovvero con navette nel traffico urbano seguendo percorsi specificamente contrassegnati (come avviene per i collaudi con minibus nelle città di Salisburgo e Velden); inoltre deve sempre trovarsi a bordo del veicolo una persona, che deve potere prontamente intervenire in caso di incidente imminente, al fine di correggere un errore di guida del computer ovvero per riassumere il controllo (umano) del veicolo.

    Anche la normativa degli Stati federali americani che consentono i collaudi su strada prevede (per il momento ancora) che debbano trovarsi all’interno del veicolo delle persone (la California ha annunciato, prima degli incidenti summenzionati, una legge che renderà obsoleta la presenza di un essere umano in vettura). Si pongono perciò tre quesiti riguardo all’incidente di UBER durante il collaudo su strada in Arizona, che ha visto la collisione con una ciclista e il decesso di quest’ultima: 1. la persona che per ragioni di sicurezza si trovava all’interno del veicolo avrebbe potuto azionare un freno di emergenza e con ciò impedire la collisione con la ciclista che all’improvviso attraversava la strada? 2. Per quali ragioni i sensori incorporati nel veicolo non hanno riconosciuto per tempo la ciclista? 3. Come mai l’autovettura non ha rispettato il limite di velocità previsto dalla legge?

    Attualmente vengono collaudati sistemi di guida sia in Europa che negli Stati Uniti. In questi ultimi, i collaudi sono possibili anche sulle strade statali e nel traffico urbano. Fintanto che saremo ancora nelle fasi di collaudo, non si può parlare di sistemi di guida tecnicamente provati, e ancor meno ufficialmente autorizzati. Lo sviluppo tecnico dei veicoli autonomi mostra tuttavia chiaramente sin da ora che la responsabilità giuridica si sposterà sempre di più dai conducenti ai costruttori dei veicoli e ai creatori di software.

    Se e quando i veicoli autonomi costituiranno un fenomeno di massa dipende pertanto in modo essenziale da determinate questioni (future): gli esseri umani possono legittimamente aspettarsi una sicurezza assoluta dei veicoli autonomi? Inoltre, che decisioni prenderanno i veicoli autonomi nel caso in cui, ad esempio, una vita umana possa essere salvata solo sacrificandone un’altra, e in che modo si può risolvere tale dilemma?

    Anche nel momento in cui l’intelligenza artificiale (IA) e i sistemi di apprendimento automatico faranno il loro ingresso nella tecnologia dei veicoli autonomi, ciò che ne risulterà saranno forse “robot umanoidi su quattro ruote” ma non saranno comunque paragonabili ad un individuo dotato di determinati valori e principi morali. Mentre ogni essere umano in una specifica situazione di incidente è personalmente responsabile del proprio comportamento messo in atto in maniera solitamente intuitiva, diventano evidenti i confini del nostro sistema giuridico nel momento in cui gli algoritmi ricavati da enormi quantità di dati prendono già in anticipo decisioni in merito a una futura situazione di incidente, le quali difficilmente possono essere attribuite a una determinata persona ovvero a un creatore di software nel caso di un veicolo autonomo. Sarà compito di noi giuristi prestare assistenza legale al legislatore nel suo sforzo di far fronte a queste sfide.

    Andreas Eustacchio

    Aree di attività

    • Contenzioso
    • Diritto societario
    • Intelligenza artificiale
    • Lavoro