การประมวลภาษาธรรมชาติ

จากวิกิพีเดีย สารานุกรมเสรี
ปัญญาประดิษฐ์

ศัพท์ปัญญาประดิษฐ์

GOFAI
การค้นหาในปริภูมิสถานะ
การวางแผนอัตโนมัติ
การค้นหาเชิงการจัด
ระบบผู้เชี่ยวชาญ
การแทนความรู้
ระบบอิงความรู้
Connectionism
ข่ายงานประสาทเทียม
ชีวิตประดิษฐ์
ปัญญาประดิษฐ์แบบกระจาย
การเขียนโปรแกรมเชิงพันธุกรรม
ขั้นตอนวิธีเชิงพันธุกรรม
ปัญญากลุ่ม
Artificial beings
Bayesian methods
เครือข่ายแบบเบย์
การเรียนรู้ของเครื่อง
การรู้จำแบบ
ระบบฟัซซี
ตรรกศาสตร์คลุมเครือ
ฟัซซีอิเล็กทรอนิกส์
Philosophy
ปัญญาประดิษฐ์แบบเข้ม
สำนึกประดิษฐ์
การทดสอบทัวริง

การประมวลภาษาธรรมชาติ (Natural language processing - NLP) เป็นสาขาย่อยของภาษาศาสตร์ วิทยาการคอมพิวเตอร์ วิศวกรรมสารสนเทศ และปัญญาประดิษฐ์ ทำการศึกษาการปฏิสัมพันธ์ระหว่างภาษาคอมพิวเตอร์และภาษา (ธรรมชาติ) มนุษย์ ในเชิงที่โปรแกรมคอมพิวเตอร์สามารถดำเนินการวิเคราะห์และแปลงข้อมูลภาษาธรรมชาติได้

การประมวลภาษาธรรมชาติมีการกล่าวถึงในปี พ.ศ. 2493 โดยแอลัน ทัวริง นักวิทยาศาสตร์ชาวอังกฤษได้เสนอการทดสอบคอมพิวเตอร์หรือเครื่องจักรที่สามารถคิดหรือกระทำได้เหมือนมนุษย์ ซึ่งวิธีการนั้นในปัจจุบันถูกเรียกว่าการทดสอบทัวริง

ในปัจจุบันการประมวลภาษาธรรมชาติมีการนิยมใช้ขั้นตอนการเรียนรู้เชิงคุณลักษณะและการเรียนรู้เชิงลึก[1][2] ที่สามารถให้ผลลัพธ์ที่ออกมาได้ดี ตัวอย่างเช่นในแบบจำลองภาษา[3] โดยได้มีการเปรียบเทียบกับวิธีการดั้งเดิมที่ใช้การประมวลผลภาษาธรรมชาติเชิงสถิติ หรือการประมวลผลตามกฎที่วางไว้

แนวทาง[แก้]

โครงข่ายประสาทเทียม[แก้]

ข้อเสียหลักของวิธีการทางสถิติคือพวกเขาต้องการการพัฒนาฟังก์ชันที่ซับซ้อน ตั้งแต่ปี 2015 วิธีการทางสถิติถูกแทนที่ด้วยวิธีโครงข่ายประสาทเทียม, ที่ใช้การฝังคำเพื่อจับคุณสมบัติทางความหมาย ของคำ

วิธีการทางสถิติ[แก้]

ในช่วงปลายทศวรรษที่ 1980 และกลางทศวรรษที่ 1990 วิธีการทางสถิตินำไปสู่การสิ้นสุดช่วงฤดูหนาวของปัญญาประดิษฐ์, ซึ่งเกิดจากความไม่มีประสิทธิภาพของวิธีการที่ใช้กฎเกณฑ์[4][5]

แนวโน้มทั่วไปและ (ทิศทางที่อาจเป็นไปได้) ในอนาคต[แก้]

ความเชื่อมโยงกับภาษาศาสตร์ทางปัญญาเป็นส่วนหนึ่งของมรดกทางประวัติศาสตร์ของการประมวลผลภาษาธรรมชาติ, แต่หลังจากการหันมาใช้วิธีทางสถิติในทศวรรษ 1990 ความสนใจดังกล่าวมีน้อยลง อย่างไรก็ตาม, แนวทางการพัฒนารูปแบบทางปัญญาเพื่อสร้างกรอบการทำงานแบบปฏิบัติการถูกใช้งานในบริบทต่างๆ, เช่น ไวยากรณ์ปัญญา,[6] ไวยากรณ์ฟังก์ชัน,[7] ไวยากรณ์การก่อสร้าง, จิตวิทยาภาษาเชิงคอมพิวเตอร์ และ ประสาทวิทยาศาสตร์ทางปัญญา (เช่น ACT-R) ในทำนองเดียวกัน, แนวคิดของการประมวลผลภาษาธรรมชาติเชิงปัญญาเป็นส่วนหนึ่งของโมเดลโครงข่ายประสาทแบบมัลติโหมด (ถึงแม้จะไม่ถูกกล่าวถึงชัดเจนบ่อย) และการพัฒนาในด้านปัญญาประดิษฐ์, โดยเฉพาะเครื่องมือและเทคโนโลยีที่ใช้โมเดลภาษาขนาดใหญ่[8][9] และการพัฒนาในด้านปัญญาประดิษฐ์, โดยเฉพาะเครื่องมือและเทคโนโลยีที่ใช้โมเดลภาษาขนาดใหญ่ แนวทางใหม่ในปัญญาประดิษฐ์ทั่วไปขึ้นอยู่กับหลักการพลังงานเสรี[10] ของนักประสาทวิทยาชาวอังกฤษคาร์ล เจ. ฟริสตันจากวิทยาลัยมหาวิทยาลัยลอนดอน

แหล่งข้อมูลอื่น[แก้]

เก็บถาวร 2020-07-12 ที่ เวย์แบ็กแมชชีน

อ้างอิง[แก้]

  1. Goldberg, Yoav (2016). "A Primer on Neural Network Models for Natural Language Processing". Journal of Artificial Intelligence Research. 57: 345–420. arXiv:1807.10854. doi:10.1613/jair.4992.
  2. Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). Deep Learning. MIT Press.
  3. Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui (2016). Exploring the Limits of Language Modeling. arXiv:1602.02410. Bibcode:2016arXiv160202410J.
  4. "How the Statistical Revolution Changes (Computational) Linguistics". aclanthology.org. สืบค้นเมื่อ 2024-05-19.
  5. "Four revolutions". languagelog.ldc.upenn.edu. สืบค้นเมื่อ 2024-05-19.
  6. "US patent 9269353". worldwide.espacenet.com. สืบค้นเมื่อ 2024-05-19.
  7. "Universal Conceptual Cognitive Annotation (UCCA)". universalconceptualcognitiveannotation.github.io. สืบค้นเมื่อ 2024-05-19.
  8. "Grounded Compositional Semantics for Finding and Describing Images with Sentences". direct.mit.edu. สืบค้นเมื่อ 2024-05-19.
  9. "Understanding the Anatomies of LLM Prompts: How To Structure Your Prompts To Get Better LLM Responses". www.codesmith.io. สืบค้นเมื่อ 2024-05-19.
  10. "Active Inference: The Free Energy Principle in Mind, Brain, and Behavior". books.google.com. สืบค้นเมื่อ 2024-05-19.