Thuật toán học tăng cường ứng dụng trong bài toán điều khiển thích nghi thông minh

135 lượt xem

Các tác giả

  • Nguyễn Văn Đức Viện Tự động hóa Kỹ thuật quân sự, Viện Khoa học và Công nghệ quân sự
  • Sái Văn Cường (Tác giả đại diện) Viện Tự động hóa Kỹ thuật quân sự, Viện Khoa học và Công nghệ quân sự

DOI:

https://doi.org/10.54939/1859-1043.j.mst.CAPITI.2024.62-68

Từ khóa:

AI; Học tăng cường (Reinforcement learning); Điều khiển thông minh; Điều khiển dựa trên dữ liệu; Điều khiển thích nghi; PID.

Tóm tắt

Ngày nay, cùng với sự phát triển của khoa học và công nghệ, các đối tượng điều khiển ngày càng phức tạp, có độ phi tuyến cao và độ bất định lớn, khiến cho các giải thuật điều khiển kinh điển truyền thống không còn hiệu quả. Điều đó dẫn đến việc phải xây dựng các cấu trúc và tham số không xác định và yêu cầu phải có kỹ thuật điều khiển tiên tiến. Để giải quyết các bài toán điều khiển có yếu tố không xác định trong các mô hình động hoc của đối tượng điều khiển, phương pháp điều khiển thích nghi thông minh dựa trên thuật toán học tăng cường có khả năng điều chỉnh tự động và liên tục các tham số của bộ điều khiển được nhóm tác giả đề xuất trong bài báo này. Tính hiệu quả và khả thi của phương pháp đề xuất được kiểm chứng thông qua mô phỏng thực tế. Các kết quả mô phỏng so sánh đạt được đã xác nhận rằng bộ điều khiển được đề xuất là bộ điều khiển bền vững, thích nghi và có hiệu suất điều khiển cao.

Tài liệu tham khảo

[1]. Girirajkumar, S. M., Kumar, A. A., & Anantharaman, N. “Tuning of a PID controller for a real time industrial process using particle swarm optimization”. International Journal of Computer Applications, 1(7), 35-40, (2010). DOI: https://doi.org/10.5120/1528-131

[2]. Cominos P, Munro N. “Pid controllers: recent tuning methods and design to specification”. IEEE Proc D; 149(1):46–53, (2002). DOI: https://doi.org/10.1049/ip-cta:20020103

[3]. Acosta GG, Mayosky MA, Catalfo JM. “An expert pid controller uses refined ziegler and nichols rules and fuzzy logic ideas”. Appl Intell; 4(1): 53–66, (1994). DOI: https://doi.org/10.1007/BF00872055

[4]. Porter B, Jones AH. “Genetic tuning of digital pid controllers”. Electron Lett; 28(9): 843–4, (1992). DOI: https://doi.org/10.1049/el:19920533

[5]. Acosta G, Todorovich E. “Genetic algorithms and fuzzy control: a practical synergism for industrial applications”. Comput Ind;52(2): 183–95, (2003). DOI: https://doi.org/10.1016/S0166-3615(03)00102-7

[6]. Zeng G-Q, Xie X-Q, Chen M-R, Weng J. “Adaptive population extremal optimization-based pid neural network for multivariable nonlinear control systems”. Swarm Evol Comput; 44: 320–34, (2019). DOI: https://doi.org/10.1016/j.swevo.2018.04.008

[7]. Richard S. Sutton and Andrew G. Barto., “Reinforcement Learning: An Introduction”, The MIT Press Cambridge, Massachusetts London, England, (2016).

[8]. Li, Y. “Deep Reinforcement Learning: An Overview”, (2017). ArXivabs/1701.07274.

[9]. TOMIN, N., KURBATSKY, V., & GULIYEV, H. “Intelligent control of a wind turbine based on reinforcement learning”. In 2019 16th Conference on Electrical Machines, Drives and Power Systems (ELMA) (pp. 1-6). IEEE, (2019). DOI: https://doi.org/10.1109/ELMA.2019.8771645

[10]. Fan J, Wang Z, Xie Y, Yang Z “A theoretical analysis of deep Q-learning. In: Learning for Dynamics and Control”. PMLR, pp 486–489, (2020).

[11]. Zheng, J., Kurt, M. N., & Wang, X. “Integrated actor-critic for deep reinforcement learning”. In Artificial Neural Networks and Machine Learning–ICANN 2021: 30th International Conference on Artificial Neural Networks, Bratislava, Slovakia, September 14–17, 2021, Proceedings, Part IV 30 (pp. 505-518). Springer International Publishing, (2021). DOI: https://doi.org/10.1007/978-3-030-86380-7_41

[12]. Tan, H. “Reinforcement Learning with Deep Deterministic Policy Gradient”. In 2021 International Conference on Artificial Intelligence, Big Data and Algorithms (CAIBDA) (pp. 82-85). IEEE, (2021). DOI: https://doi.org/10.1109/CAIBDA53561.2021.00025

[13]. Zhang F, Li J, Li Z “A td3-based multi-agent deep reinforcement learning method in mixed cooperation-competition environment”. Neurocomputing 411: 206–215, (2020). DOI: https://doi.org/10.1016/j.neucom.2020.05.097

[14]. Johnson M.A. and M.H. Moradi. “Chapter 8, in: PID Control - New Identification and Design Methods”, pp. 297-337. Springer-Verlag London Limited. ISBN-10: 1-85233-702-8, (2005).

[15]. Kwok, D.P. and P. Wang. “Fine-tuning of classical PID Controllers based on Genetic Algorithms”. IEEE Inter. Workshop on Emerging Technologies and Factory Automation, pp. 37-43, (1992). DOI: https://doi.org/10.1109/ETFA.1992.683224

[16]. Jones A.H. and P.B.M. Oliveira. “Genetic Auto-tuning of PID Controllers”. IEEE Conf. Publ. No. 414, 12-14 Sep 1995, pp. 141-145, (1995).

Tải xuống

Đã Xuất bản

01-04-2024

Cách trích dẫn

Nguyễn Văn Đức, và Sái Văn Cường. “Thuật toán học tăng cường ứng dụng Trong bài toán điều khiển thích Nghi thông Minh”. Tạp Chí Nghiên cứu Khoa học Và Công nghệ quân sự, số p.h CAPITI, Tháng Tư 2024, tr 62-68, doi:10.54939/1859-1043.j.mst.CAPITI.2024.62-68.