Использование искусственного интеллекта в здравоохранении: распределение ответственности и рисков
Published: Dec. 30, 2021
Latest article update: Dec. 4, 2023
В рамках настоящей статьи автором рассмотрены особенности применения и использования искусственного интеллекта в медицинской практике, включая сложные вопросы, связанные с персональной ответственностью врача при принятии решений о диагностике и лечении на основании предложения алгоритма (системы поддержки принятия врачебных решений), а также возможные варианты ответственности разработчика алгоритма. Статья представляет собой обзор существующей системы привлечения к ответственности медицинских работников, а также оценку возможных вариантов распределения ответственности в связи с распространенным внедрением искусственного интеллекта в работу врачей и возможным внедрением в стандартны оказания медицинской помощи. Автор рассматривает возможность установления для искусственного интеллекта, зарегистрированного как медицинское изделие, более серьезных требований к сбору информации о побочных действиях таких изделий. Используя метод юридического анализа и сравнительно-правовой метод, автор анализирует существующие в мире тенденции в сфере распределения ответственности за причинение вреда при оказании медицинской помощи в тех случаях, когда при принятии врачебного решения имеет место ошибка и (или) неточность, в результате чего демонстрирует возможные варианты распределения ролей медицинского работника и искусственного интеллекта в ближайшем будущем.
Keywords
Искусственный интеллект, ответственность, здравоохранение, персональные данные, цифровое здравоохранение, медицинские изделия, деликты
Наверное, каждая вторая заметка и каждая вторая дискуссия на современных научных просторах обращается к проблемам использования искусственного интеллекта в той или иной индустрии. И независимо от сферы одним из ключевых вопросов является вопрос ответственности в случае, если на основании выводов искусственного интеллекта было принято решение, которое причинило вред здоровью, жизни, имуществу, предприятию, экологии и иным объектам, список которых можно продолжать бесконечно. В рамках данного исследования автор предлагает рассмотреть применение технологий искусственного интеллекта в сфере здравоохранения и оценить возможные тенденции и перспективы развития законодательства об ответственности, если вред жизни и здоровью причинен в результате ошибки алгоритма.
Согласно данным официального портала Управления по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) в настоящее время в США одобрено более 300 единиц медицинских изделий, работающих с использованием технологии искусственного интеллекта и (или) с использованием технологии машинного обучения1. Первое медицинское изделие на основе искусственного интеллекта в качестве медицинского изделия в Российской Федерации было зарегистрировано в 2020 году2.
Поэтапное внедрение цифровых технологии в здравоохранение наблюдается в связи с внедрением электронных медицинских карт, создания информационных систем здравоохранения, отдельных регистров, распространения телемедицинских сервисов, а также появления устройств, способных отслеживать состояние здоровья как в рамках обычной жизни, так и в рамках специальных назначений (фитнес-браслеты, помпы для определения уровня сахара в крови). Однако обозначенные выше процессы не привели к тому, что у врачей появилось больше свободного времени от административной работы. Объем пациентов в расчете на одного врача с годами увеличивается и зачастую, по данным исследований, у врачей уходит на принятие решения по каждому конкретному пациенту лишь 50 % от требуемого времени (McGlynn et al., 2003). Такая ограниченность во времени из-за невовлеченности врача может повлечь множество ошибок, но цифровая эпоха предлагает врачу для минимизации рисков ошибки и неправильной диагностики программы, использующие технологии искусственного интеллекта. Такие системы работают следующим образом: программа анализирует клиническую картину, общий анамнез пациента и осуществляет диагностику, врач на основании своего опыта может подвергнуть критике решение алгоритма и диагностировать иное заболевание, принять иное решение или же согласиться с машиной. В текущих реалиях искусственный интеллект является лишь помощником врача, и вся ответственность за итоговую диагностику и предпринятые меры по терапии возлагаются на врача.
Для того, чтобы искусственный интеллект мог самостоятельно, независимо от врача, принимать решения, а не быть «second opinion», существует ряд проблем, связанных не только с ответственностью, но и с барьерами в правовом регулировании, которые не дают искусственному интеллекту «получить больше опыта и знаний» (Forcier, 2019).
Далее мы детально рассмотрим проблематику распределения ответственности между врачом и искусственным интеллектом, вопросы ответственности разработчиков алгоритмов через призму различных подходов к ответственности в случае причинения вреда здоровью или жизни пациента, если такой вред причинен из-за ошибки в работе алгоритма.
В Российской Федерации и на территории других стран мира использование искусственного интеллекта как своеобразного помощника врача распространяется с каждым годом. Для удобства восприятия информации в рамках настоящего исследования автором будут использоваться примеры искусственного интеллекта, который представляет собой систему поддержки принятия врачебных решений (СППВР), т. е. анализирует информацию о пациенте и может подобрать необходимую терапию и провести диагностику.
Искусственный интеллект выполняет функцию «второго мнения», которое врач на свое усмотрение учитывает при диагностике и лечении пациентов. Если диагностируемое врачом заболевание совпадает с тем, что предлагает алгоритм, то врач только лишний раз убеждается в своей правоте и принимает решение с большей уверенностью.
Напротив, когда решение врача отличается от того, что предлагает алгоритм, у врача появляется возможность проверить правильность своего решения: провести дополнительный осмотр пациента, назначить дополнительные анализы или дополнительно изучить результаты обследования, полученные раннее. И если по итогам такого изучения врач все равно приходит к решению, принятому им раннее, то решение алгоритма просто не принимается во внимание. В ином случае, после проведения дополнительного анализа данных, врач понимает, что имела место неосмотрительность с его стороны или упущение клинически важных моментов при постановке диагноза, врач корректирует принятое им решение и избегает ошибки.
В двух из трех описанных случаях возможно допущение ошибки: т. е. принятия решения, которое может повлечь неправильное лечение пациента и как следствие причинение вреда здоровью или даже жизни.
Итак, когда пациенту был причинен вред вследствие врачебной ошибки, он вправе обратиться к медицинской организации с требованием о возмещении вреда, причиненного такой ошибкой. Зачастую отношения врач-пациент основаны на договоре и регулируются положениями Федерального закона от 21.11.2011 № 323-ФЗ «Об основах охраны здоровья граждан в Российской Федерации» (далее — «323-ФЗ»)3 и Гражданского кодекса РФ4.
В совокупном прочтении 323-ФЗ и главы 59 Гражданского кодекса РФ ниже определены основные характеристики ответственности, применимые в настоящее время в Российской Федерации в случае причинения вреда при оказании медицинской помощи.
В настоящее время в отечественном правопорядке отсутствует персональная имущественная ответственность врача, иными словами, причинителем вреда и лицом, к которому обращено требование о возмещении вреда является медицинская организация, где трудится врач, осуществляющий лечение5. На врача может возлагаться ответственность, но уже другими отраслями права (например, уголовное)6.
Врач отвечает в тех случаях, когда имело место отклонение от установленных стандартов оказания медицинской помощи, а также клинических рекомендаций (далее — стандарты)7 и, когда имеет место ухудшение состояния здоровья лица и его смерть в результате такого отклонения.
Отклонение от установленных стандартов оказания медицинской помощи не является достаточным для того, чтобы возложить имущественную ответственность на медицинскую организацию, важно, чтобы имело место причинение вреда, а также причинно-следственная связь между противоправным поведением и причинением вреда (Soktoev & Spiridonov, 2021). Именно на этом моменте возникают наибольшие трудности при определении связи между лечением и причинением вреда на практике. Одним из известных дел является дело 2010 года, в котором Верховный Суд РФ отказал истцу в удовлетворении требований в связи с тем, что отсутствовала прямая причинная связь между лечением (а точнее нарушением его стандартов) и смертью пациента8. С учетом комплексного характера оказания медицинской помощи куда включается не только лечение и манипуляции, но и своевременная диагностика, назначение необходимых обследований и анализов, прием лекарственных препаратов, а также последовательное наблюдение, установить прямую причинную связь между действиями медицинской организации в лице врача и причинением вреда здоровью или жизни практически представляется невозможным. По всем делам, рассматриваемым судами в этой сфере, назначается судебная экспертиза, чтобы внести ясность. Поэтому в последние годы правоприменительная практика в Российской Федерации начала складываться таким образом, что наличие любой причинной связи (даже косвенной) воспринимается как основание для удовлетворения заявленных требований, а степень наличия прямой или косвенной причинно-следственной связи влияет лишь на степень вины. Так, например, в деле по иску Ф. к ГБУЗ Калининградской области «Гусевская центральная районная больница» в связи со смертью его супруги З. была проведена проверка, которая выявила ряд отклонений от стандартов оказания медицинской помощи (отсутствие подписей врача, отсутствие назначений на консультацию врача-невролога, не назначен ряд исследований), тем не менее экспертиза указала, что такие отклонения от стандартов не находятся в прямой причинно-следственной связи с наступлением смерти З., кроме того, экспертами было указано, что патология, которая была у гражданки З. могла протекать бессимптомно (т. е. врач не мог ее обнаружить и диагностировать). Несмотря на указанное суд пришел к выводу, что отсутствие прямой причинно-следственной связи не опровергает факта нарушения стандартов оказания медицинской помощи и удовлетворил исковые требования.
Однако до сих пор правоприменительная практика обладает непоследовательностью выводов в отношении причинно-следственной связи, а в связи с отсутствием каких-либо нормативно установленных стандартов доказывания по медицинским деликтам или разъяснений высших судебных инстанций, сложно давать оценку необходимым действиям истца и прогнозировать решение по делу. Как отмечает М. В. Кратенко, отсутствие в законодательстве норм о перераспределении бремени доказывания обусловливает любопытную тенденцию в практике: суды соглашаются с возмещением морального вреда, но при этом в отношении возмещения вреда здоровью или в отношении расходов на лечение и (или) восстановление после «неправильного» лечения отказывают (Kratenko, 2021). Без сомнения, требуется единая позиция либо законодателя, либо правоприменителя к вопросам, связанным с наличием прямой или косвенной причинной связи между действиями медицинской организации (врача) и причинением вреда здоровью.
В рамках настоящей статьи, описанная выше проблематика интересна не только с точки зрения проблем деликтной ответственности за причинение вреда жизни и здоровью при оказании медицинской помощи в целом, но и также применима к случаям, когда причинение вреда имело место в результате использования неправильного (ошибочного) решения искусственного интеллекта. В таком случае необходимо смоделировать варианты ответственности врача (медицинской организации), учитывая тот факт, что в настоящее время использование искусственного интеллекта не регламентировано в стандартах оказания медицинской помощи.
Если рассматривать ситуацию, при которой врач диагностирует заболевание и назначает терапию на основании ошибочного решения алгоритма и при этом решение последнего отлично от первоначального мнения врача, тогда врач в полной мере должен нести ответственность за принятое решение. Обстоятельства дела должны рассматриваться в обычном порядке, независимо от того, что «вторым мнением» врача был искусственный интеллект, коллега по работе или однокурсник из вуза. Ситуация кардинально меняется, если по некоторым категориям заболеваний в стандартах оказания медицинской помощи установлено, что решения искусственного интеллекта самостоятельны и должны учитываться лечащим врачом. В такой ситуации сразу возникает вопрос: кто должен нести ответственность, если алгоритм допустил ошибку и пациенту причинен вред жизни или здоровью? Чтобы не впадать в крайности, отметим, что должны быть исключены ситуации, когда ошибка искусственного интеллекта очевидна, тогда врач должен принимать решение самостоятельно.
Открытым остается вопрос о надлежащем субъекте ответственности при причинении вреда жизни или здоровью, когда ошибка алгоритма не является очевидной для врача с учетом его надлежащей осмотрительности, опыта и знаний.
На основании поставленного выше вопроса ниже приведены замечания о вариантах субъектного состава лиц, ответственных за ошибочное принятие искусственным интеллектом решения, которое повлекло причинение вреда здоровью или жизни пациента.
Одним из существующих направлений в научной дискуссии является вопрос наделения искусственного интеллекта правосубъектностью (Stepanov, 2021), следовательно, быть субъектом деликтной ответственности (Ziemianin 2021). Аргументов против такой позиции достаточно и автор их поддерживает и не видит возможных оснований в существующем политико-правовом поле наделять искусственный интеллект правосубъектностью. Кроме того, заслуживают внимания позиции ученых, которые полагают, что в настоящее время правовая конструкция искусственного интеллекта не имеет достаточно определенных признаков и границ, чтобы выделить те случаи, когда робот может быть самостоятельным субъектом правоотношений, а когда это является программой и соответственно объектом правоотношений (Chesterman, 2020).
Тем не менее, для правовых систем, где есть конструкция юридического лица, которое является полноправным субъектом правоотношений, введение новой правовой конструкции, которая будет иметь схожую правовую природу, не представляется чем-то невозможным в ближайшем будущем (Hacker et al., 2020).
Так, в некоторых юридических исследованиях содержатся предложения по внедрению законодательства о преследовании роботов в случае совершения ими преступления, где в качестве наказания для таких систем предусматривается «перепрограммирование» или уничтожение программы (Hallevy, 2015).
Одним из значимых актов в рассматриваемой сфере является Резолюция Европарламента от 16 февраля 2017 года, 2015/2013(INL), согласно которой роботы не могут нести ответственность за действия или бездействия9. В развитие этих положений была принята в 2020 году резолюция Европарламента от «Об ответственности искусственного интеллекта», в которой также высказаны сомнения относительно необходимости наделять такие системы правосубъектностью. Настоящая резолюция предлагает возлагать ответственность на лиц, которые участвуют в цепочке жизненного цикла искусственного интеллекта. В частности, говорится об ответственности оператора как лица, которое контролирует риск, связанный с ошибкой искусственного интеллекта, и извлекает определенную пользу, связанную с его эксплуатацией10.
В Российской Федерации в настоящее время даже на уровне научных дискуссий проблематика ответственности искусственного интеллекта рассматривается на достаточно скромном уровне, а на законодательном уровне и на уровне практики судов в целом такой вопрос не поднимается, поэтому в настоящем разделе рассуждение будет построено на основании общих принципов ответственности, установленных гражданским законодательством Российской Федерации, законодательством о медицинских изделиях, а также существующим опытом зарубежных стран в вопросах ответственности за ошибки искусственного интеллекта.
Согласно ст. 1096 ГК РФ вред, причинённый вследствие недостатков услуги, подлежит возмещению лицом, оказавшим услугу. Если мы рассматриваем ситуацию, при которой оказание услуги соответствовало всем требованиям и стандартам медицинской помощи, требования о вреде, причиненного работой искусственного интеллекта должно быть предъявлено отдельно либо к медицинскому учреждению (как лицу, которое использует программу), либо к разработчику (как лицу, ответственному за содержание и алгоритмы работы). Получается, что в случае, если вины врача в неправильном лечении и (или) диагностике нет, должно иметь место самостоятельное требование как к медицинской организации, так и к разработчику. Автор не настаивает на альтернативном подходе к определению ответственного лица (разработчик или оператор), наоборот, предполагает, что на уровне законодательства должен быть установлен единственный субъект ответственности или же вопрос должен разрешаться в судебной плоскости с детальным установлением причинной связи между ошибкой робота и причинением вреда по причине того, что не исключена ситуация, когда ошибочное решение вызвано не только действиями разработчика, но и бездействиями медицинской организации (например, не вовремя установлено обновление, исключающее ошибки или неполностью/ошибочно интегрирована медицинская информационная система и в программное обеспечение с технологией искусственного интеллекта).
Наиболее целесообразным, на наш взгляд, будет привлечение к ответственности разработчика как лица, которое писало код и формировало алгоритмы работы. Такой подход является весьма распространенным, при этом аргументы в его пользу представляются достаточно убедительными.
Так, в странах общего права уже рассматривались вопросы причинения вреда здоровью пациента при использовании роботов, которые совершали ошибку. Тем не менее, и общая система права, и ее правоприменительная практика не способны дать однозначный ответ на вопрос об ответственности разработчика в случае совершения программой ошибки. Например, в деле Mracek v. Bryn Mawr Hospital11 при операции рака простаты использовался робот да Винчи, чтобы минимизировать постоперационный риск эректильной дисфункции. В процессе операции робот несколько раз сообщал об ошибках, которые потребовали времени и сил на их устранение, и как результат — эректильная дисфункция у пациента после операции. Иск был подан в отношении медицинского учреждения и разработчика робота, но по решению суда только разработчик остался ответчиком, как лицо, которое несет повышенную ответственность за качество продукции (strict liability), однако суд отклонил требования истца, указав, что пациент не представил доказательств наличия причинно-следственной связи между ошибкой робота и последующим развитием эректильной дисфункции.
В то же время в деле Singh v. Edwards Lifesciences12 суд удовлетворил требование истца, здоровью которого в результате операции на сердце был причинен вред. Как было установлено, имела место ошибка в работе программного обеспечения, и компания-разработчик была привлечена к ответственности.
Отсутствие правовой определенности и невозможность прогнозирования решений судов при рассмотрении дел, связанных с ошибкой искусственного интеллекта, может привести к тому, что пострадавшие пациенты будут обращаться в суд с исками к врачам и иным лицам. Указанное повлечет затягивание судебных процессов и увеличение издержек потерпевшего в процессе восстановления справедливости.
В качестве дополнительного аргумента «за» ответственность разработчика можно апеллировать к ответственности разработчика по аналогии с ответственностью производителей медицинских изделий. Искусственный интеллект, используемый в медицинской практике, регистрируется в качестве медицинского изделия (как и все медицинские изделия), т. е. проходит необходимые испытания, в том числе на эффективность и безопасность. В случае выявления каких-либо отклонений в результате эксплуатации медицинского изделия (нежелательных явлений), в зависимости от степени отклонения, возможны публично-правовые последствия, вплоть до отзыва продукции и отмены регистрации медицинского изделия. Иными словами, предлагается использовать повышенную ответственность для разработчиков медицинских изделий как лиц, которые зарегистрировали данный продукт в качестве изделия для медицинского применения и коммерциализируют его на соответствующем рынке.
С учетом сложившейся практики по спорам из медицинских деликтов предполагается, что сам по себе характер медицинских споров не изменится: затяжное разбирательство, множество экспертиз, требования о возмещении вреда здоровью, компенсация стоимости лечения и морального вреда. Дополнительно к этому сторонам в процессе и суду необходимо будет исключить возможную врачебную ошибку и (или) ошибку медицинской организации, чтобы прийти к выводу об ответственности производителя (разработчика). А с учетом широкого распространения медицинских изделий с технологией искусственного интеллекта сейчас и в будущем наиболее целесообразным представляется вариант с обязательным страхованием ответственности разработчиков за причинение вреда здоровью или жизни при использовании программ, которые зарегистрированы в качестве медицинских изделий.
Рассмотренные в настоящей статье проблемы привлечения к ответственности за ошибочное (неправильное) решение искусственного интеллекта при оказании медицинской помощи в наибольшей мере являются рассуждением о возможном будущем регулировании, когда роботы статут «ассистентами» врачей и их решения будут обязательны для учета медицинским работником. В настоящее время, как в Российской Федерации, так и в большинстве стран мира, рассмотренный вопрос, находится в плоскости научных дискуссий, поскольку главное слово в отношении пациента принимает врач, а искусственный интеллект лишь представляет «second opinion». Но наступит время, когда алгоритмы станут неотъемлемой частью любой сферы жизни, в том числе и здравоохранения, но это не исключит случаи причинения вреда жизни и здоровью при оказании медицинской помощи, включая ошибки роботов. На сегодняшний день концепции, направленные на придание искусственному интеллекту правосубъектности и наделение его деликтоспособностью, оцениваются автором как неспособные к существованию в ближайшем будущем, поэтому наиболее реальным для целей обеспечения прав потерпевших, которым причинен вред при лечении, является установление ответственности для разработчиков программ с технологией искусственного интеллекта, а также введение требований об обязательном страховании ответственности таких разработчиков.
1. Chesterman, S. (2020). Artificial intelligence and the limits of legal personality. International and Comparative Law Quarterly, 69(4), 819-844. https://doi.org/10.1017/S0020589320000366
2. Forcier, M. B., Gallois, H., Siobhan, M., & Yann, J. (2019). Integrating artificial intelligence into health care through data access: Can the GDPR act as a beacon for policymakers? Journal of Law and the Biosciences, 6(1). 317-335. https://doi.org/10.1093/jlb/lsz013
3. Hacker, P., Krestel, R., Grundmann, S., & Naumann, F. (2020). Explainable AI under contract and tort law: Legal incentives and technical challenges. Artificial Intelligence and Law, 28, 415-439. https://doi.org/10.1007/s10506-020-09260-6
4. Hallevy, G. (2015). Liability for crimes involving artificial intelligence systems. Springer International Publishing.
5. Kratenko, M. V. (2021). Tort law vs compensation (insurance) schemes. Part one: Medical injuries [Deliktnoye pravo vs kompensatsionnyye (strakhovyye) skhemy. Chast’ pervaya: Meditsinskiye travmy]. Civilistika, 2(4), 18-93.
6. McGlynn, E. A., Asch, S. M., Adams, J., Keesey, J., Hicks, J., De Cristofaro, A., & Kerr, E. A. (2003). The quality of health care delivered to adults in the United States. New England Journal of Medicine, 348(26): 2635-2645. https://doi.org/10.1056/NEJMsa022615
7. Soktoev, Z. B., & Spiridonov, V. A. (2021). Ispol’zovaniye priyemov formal’noy formal’noy logiki pri vyyavlenii prichinnoy svyazi po «vrachebnomu delu» [Logical methods for determination of causality in “medical cases”]. Sudebno-Meditsinskaya Ekspertisa, 64(6), 56-60. https://doi.org/10.17116/sudmed20216406156
8. Stepanov, S. K. (2021). Dekonstruktsiya pravosub”yektnosti ili mesto iskusstvennogo intellekta v prave [Deconstruction of the legal personhood of artificial intelligence]. Digital Law Journal, 2(2), 14-30. https://doi.org/https://doi.org.ru/10.38044/2686-9136-2021-2-2-14-30
9. Ziemianin, K. (2021). Civil legal personality of artificial intelligence. Future or utopia? Internet Policy Review, 10(2). https://do.org/10.14763/2021.2.1544