http://doi.org/10.26347/1607-2502202503-04003-014
Совершенствование технологий искусственного интеллекта (ИИ) и их стремительная интеграция в социально и экономически значимую медицинскую отрасль создают широкие перспективы для обеспечения доступности и качества медицинской помощи, вместе с тем порождают новые вызовы, связанные с безопасностью и этическими рисками применения инновационных решений. Это формирует потребность в разработке ясных этических требований, которые будут способствовать ответственному развитию и внедрению ИИ-технологий в исследованиях, в клинической практике и в управлении здравоохранением. Лежащие в основе этих требований принципы должны не только снижать потенциальные риски, но и способствовать конструктивному диалогу между всеми участниками процесса организации и оказания медицинской помощи.Внедрение этических норм на каждом этапе жизненного цикла систем ИИ в здравоохранении призвано: укрепить взаимное доверие между пациентами, врачами и разработчиками технологий; обеспечить грамотное и эффективное применение ИИ-решений организаторами здравоохранения, медицинским персоналом и пациентами; сделать медицинскую помощь более доступной и качественной для всех слоёв населения вне зависимости от места проживания, национальности, пола и возраста, социального статуса, материальных возможностей и иных различий.Рабочая группа по медицине Национальной комиссии по реализации Кодекса этики в сфере ИИ разработала и утвердила Кодекс этики в сфере искусственного интеллекта в медицине и здравоохранении в качестве отраслевого приложения к основному документу Комиссии. Его ключевая особенность заключается в том, что этические принципы сформулированы для всех этапов жизненного цикла ИИ-систем - от разработки и исследований до утилизации. Кроме того, в Кодексе предложена система оценки и ранжирования рисков ИИ-технологий, включая специальные классификации для систем поддержки принятия врачебных решений (СППВР) и клинической прогнозной аналитики, а также сформулированы специальные критерии для психиатрии и неврологии. Особое внимание уделено этапу клинических испытаний, включая трансляционные исследования. В основе Кодекса лежат ключевые этические принципы: "не навреди", ответственность разработчиков, врачей и пациентов, справедливость, прозрачность, уважение к пациенту и защита конфиденциальности персональных данных. Предусмотрены механизмы регулярного обновления документа для соответствия стремительно развивающимся технологиям ИИ. Даны рекомендации для биоэтических комитетов.Кодекс призван стать надежной основой для внедрения ИИ в здравоохранение и медицину, обеспечивая баланс между инновационным потенциалом технологий и защитой прав пациентов и медицинских работников.
1 Moscow State Institute of International Relations (University), Moscow, Russia2 Kazan State Medical University, Kazan, Russia3 Coordinating Council of SME Associations in the field of AI, Moscow, Russia4 RUSSOFT Association Moscow, Russia5 PIX Robotics, Moscow, Russia6 N.A. Semashko National Research Institute of Public Health, Moscow, Russia7 Tver State Medical University, Tver, Russia8 LLC MTP Newdiamed, Moscow, Russia9 Moscow City Scientific Society of Therapists, Moscow, Russia10 Third Opinion AI, Moscow, Russia11 SPA "National Telemedicine Agency" LLC, Moscow, Russia12 PhthisBioMed LLC, a group of companies of JSC Vector Radio Company13 Sberbank of Russia, Moscow, Russia14 N.I. Pirogov National Medical and Surgical Center, Moscow, Russia15 ANO "IT Expertise Development Center", Nizhny Novgorod, Russia16 National Research Lobachevsky State University of Nizhny Novgorod, Nizhny Novgorod, Russia17 Russian University Of Medicine, Moscow, Russia18 National Research University Higher School of Economics, Moscow, Russia19 BRAINPHONE LLC, Kazan, Russia20 Kazan (Volga Region) Federal University, Kazan, Russia21 Tomsk National Research Medical Center of the Russian Academy of Sciences, Tomsk, Russia22 Private educational institution of higher education "Kazan Innovative University named after V.G. Timiryasov (IEUP)" Kazan, Russia23 Medical Screening Systems llc, Moscow, RussiaThe improvement of artificial intelligence (AI) technologies and their rapid integration into the socially and economically significant medical industry create broad prospects for ensuring accessibility and quality of medical care, while at the same time creating new challenges related to the safety and ethical risks of using innovative solutions. This creates the need to develop clear ethical requirements that will facilitate the responsible development and implementation of AI technologies in research, clinical practice, and healthcare management. The principles underlying these requirements should not only reduce potential risks, but also promote constructive dialogue between all participants in the organization and provision of medical care.The implementation of ethical standards at every stage of the life cycle of AI systems in healthcare is designed to: strengthen mutual trust between patients, doctors and technology developers; ensure the competent and effective use of AI solutions by healthcare organizers, medical staff and patients; make medical care more accessible and of high quality for all segments of the population, regardless of place of residence, nationality, gender and age, social status, financial opportunities, and other differences.The Working Group on Medicine of the National Commission for the Implementation of the Code of Ethics in the Field of AI has developed and approved the Code of Ethics in the field of Artificial Intelligence in Medicine and Healthcare as an industry annex to the main document of the Commission. Its key feature is that ethical principles are formulated for all stages of the life cycle of AI systems - from development and research to disposal. In addition, the Code proposes a system for assessing and ranking the risks of AI technologies, including special classifications for medical decision support systems and clinical predictive analytics, as well as special criteria for psychiatry and neurology. Special attention is paid to the stage of clinical trials, including translational research.The Code is based on key ethical principles: "do no harm", responsibility of developers, doctors and patients, fairness, transparency, respect for the patient and protection of personal data confidentiality. Mechanisms are provided for regular updating of the document to comply with rapidly developing AI technologies. Recommendations are given for bioethical committees.The Code is intended to become a reliable basis for the introduction of AI in healthcare and medicine, ensuring a balance between the innovative potential of technology and the protection of the rights of patients and medical professionals.
Keywords: Artificial Intelligence (AI), medical ethics, healthcare, ethical principles, clinical trials, patient safety, data privacy, algorithmic transparency, clinical decision support systems (CDSS), risk management, informed consent, independent ethics committee.