Insights

Liability for damages caused by artificial Intelligence Liability for damages caused by artificial Intelligence
Liability for damages caused by artificial Intelligence

Authors – Paulius Čerka, Jurgita Grigienė, Gintarė Sirbikytė.

The emerging discipline of Artificial Intelligence (AI) has changed attitudes towards the intellect, which was long considered to be a feature exclusively belonging to biological beings, i.e. homo sapiens. In 1956, when the concept of Artificial Intelligence emerged, discussions began about whether the intellect may be more than an inherent feature of a biological being, i.e. whether it can be artificially created. AI can be defined on the basis of the factor of a thinking human being and in terms of a rational behaviour: (i) systems that think and act like a human being; (ii) systems that think and act rationally. These factors demonstrate that AI is different from conventional computer algorithms. These are systems that are able to train themselves (store their personal experience). This unique feature enables AI to act differently in the same situations, depending on the actions previously performed.

The ability to accumulate experience and learn from it, as well as the ability to act independently and make individual decisions, creates preconditions for damage. Factors leading to the occurrence of damage identified in the article confirm that the operation of AI is based on the pursuit of goals. This means that with its actions AI may cause damage for one reason or another; and thus issues of compensation will have to be addressed in accordance with the existing legal provisions. The main issue is that neither national nor international law recognises AI as a subject of law, which means that AI cannot be held personally liable for the damage it causes. In view of the foregoing, a question naturally arises: who is responsible for the damage caused by the actions of Artificial Intelligence? 

In the absence of direct legal regulation of AI, we can apply article 12 of United Nations Convention on the Use of Electronic Communications in International Contracts, which states that a person (whether a natural person or a legal entity) on whose behalf a computer was programmed should ultimately be responsible for any message generated by the machine. Such an interpretation complies with a general rule that the principal of a tool is responsible for the results obtained by the use of that tool since the tool has no independent volition of its own. So the concept of AI-as-Tool arises in the context of AI liability issues, which means that in some cases vicarious and strict liability is applicable for AI actions.

Read more
Ar socialinio tinklo valdytojas atsako už šio tinklo naudotojo neteisėtais veiksmais padarytą žalą? Ar socialinio tinklo valdytojas atsako už šio tinklo naudotojo neteisėtais veiksmais padarytą žalą?
Ar socialinio tinklo valdytojas atsako už šio tinklo naudotojo neteisėtais veiksmais padarytą žalą?

Autorė – Gintarė Sirbikytė

Socialiniai tinklai viešojoje erdvėje pasirodė 2005 m. – 2007 m. Nuo jų viešo pasirodymo internete praėjo septyneri metai, tačiau jų populiarumas vis dar auga. Pasaulyje priskaičiuojama apie 150 aktyviai veikiančių socialinių tinklų iš kurių net 13 turi daugiau nei po šimtą milijonų naudotojų. Socialinių tinklų veikimas paremtas informacijos sklaida t. y. įgyvendinant saviraiškos laisvės, informacijos laisvės bei teisės į informaciją nuostatas. Tačiau saviraiškos laisvė nėra absoliuti. Asmens saviraiška naudojantis informacijos laisve yra galima tiek, kiek tai nepažeidžia kito asmens teisių. Deja, ne visi socialinių tinklų naudotojai tuo vadovaujasi ir neretai nutinka taip, jog kitų asmenų teisės vis tik būna pažeistos.

Teisės normomis įtvirtinta, kad žalą atsiradusią dėl kitų asmenų neteisėtų veiksmų, privalu atlyginti. Tiek romėnų teisėje, tiek ir įvairių valstybių civiliniuose kodeksuose numatyta, kad žalą atlygina teisės pažeidėjas asmeniškai arba asmuo, kuris yra atsakingas už teisės pažeidėjo veiksmus. Atsižvelgiant į šias teisės nuostatas bei tai, jog internetinėje erdvėje ne visuomet galima nustatyti tikruosius teisės pažeidėjus, kyla klausimas, ar socialinio tinklo valdytojas gali atsakyti už šio tinklo naudojo neteisėtais veiksmais padarytą žalą?

Atlikus teisės aktų bei teismų praktikos analizę, buvo padarytos išvados, jog socialinių tinklų valdytojų atsakomybės klausimus teismai sprendžia vadovaudamiesi precedentais, kurie buvo priimti prieš du dešimtmečius, arba teisės aktais, kurie buvo sudarinėjami prieš daugiau nei dešimtmetį. Atsižvelgiant į sparčią informacinių technologijų kaitą, minimos teisės normos gali būti pasenę, neatitinkančios esamos situacijos. Dėl šios priežasties sprendžiant socialinių tinklų valdytojų atsakomybės klausimus, tais atvejais, kai dėl tinklų naudotojų neteisėtų veiksmų kyla grėsmė žmonių prigimtinėms teisėms, teismai privalo atsižvelgti į esamą situaciją ir vadovautis inter alia protingumo bei teisingumo principais. Pabrėžtina, kad teisėtumas nelaikytinas priežastimi pateisinant bet kokį elgesį ar jį formuojančią ideologiją. Socialinio tinklo valdytojas privalo elgtis taip, kad savo veika nepadarytų kitam asmeniui žalos. Būdamas rūpestingas, jis turi pasirinkti tą veikos alternatyvą, kurios tinkamų atsargumo priemonių našta būtų mažesnė negu žala pagal jos atsiradimo tikimybę.

Read more
Is it possible to grant legal personality to artificial intelligence software systems? Is it possible to grant legal personality to artificial intelligence software systems?
Is it possible to grant legal personality to artificial intelligence software systems?

Authors – Paulius Čerka, Jurgita Grigienė, Gintarė Sirbikytė.

The purpose of this paper is to determine whether Systems of Artificial Intelligence (SAI) can be deemed subjects of law. This aim is formulated according to the technical capabilities integrated in SAI and the SAI’s ability to interact independently with other legal subjects. SAI features, such as direct connection with intellectual skills, the ability to understand, learn and make autonomous decisions may cause situations where autonomous systems based on AI will make decisions which will be in the best interests of individuals, even though conflicting with the user’s own will.

To consider the possibility of SAI being recognized as possessing legal personality, we analyse the concept and features of SAI and define its operating principles. We give hypothetical examples to demonstrate the necessity of SAIs being recognized as such. The paper undertakes legal personality analysis of SAI performed: (i) using the philosophical and legal concepts of a subject (person); (ii) discussing artificial (unnatural subjects of law) as an alternative to the recognition of legal personality of SAI; (iii) using elements of legal personality set for natural and legal persons.

The analysis leads to the conclusion that the scope of SAI rights and obligations will not necessarily be the same as the scope of rights and obligations of other subjects of law. Thus, SAI could only have rights and obligations that are strictly defined by legislators. This conclusion suggests that the result of this paper may be its use in further research defining the scope of SAI rights and obligations.

Read more