Con rối 3D giúp các nghệ sĩ tạo chuyển động hoạt hình

Cho đến tận bây giờ, hầu hết các nhà phát triển (developers) hoạt hình bằng máy tính vẫn phải tạo cử động cho các nhân vật của mình bằng… chuột. Họ phải rê dắt các bộ phận “ảo” trên cơ thể nhân vật đến vị trí thích hợp để tạo thành các dáng cần thiết một cách tẻ nhạt, và tốn rất nhiều thời gian. Thế nhưng các nhà nghiên cứu tại Interactive Geometry Lab (IGL- tạm dịch: phòng nghiên cứu tương tác hình học) tại Đại Học ETH Zurich đã phát triển một phương thức khác, có thể trực tiếp tạo ra cử động của vật thể ảo thông qua một mô hình 3D dạng “joysticks” (tạm dịch: gậy điều khiển).

Nghiên cứu này được thực hiện cùng với sự giúp đỡ từ Autonomous Systems Lab (ALS, tạm dịch: phòng nghiên cứu về hệ thống về hệ thống tự động). Nhóm nghiên cứu hình học, dẫn đầu bởi Giáo Sư Olga Sorkine-Hornung đã phát triển một “con rối nhập liệu”(input-puppet). Con rối này được cấu tạo bởi rất nhiều các khối module được in 3D, các khối này có thể sắp xếp tùy ý để tạo ra hình ảnh tương tự như nhân vật ảo cần điều khiển. Với các cảm biến được tích hợp ở mỗi khớp, có khả năng đo đạc góc uốn hoặc độ xoắn của cử động, mô hình lắp ghép có thể được sử dụng để trực tiếp truyền thông tin cử động đến một phần mềm máy tính. Phần mềm này sẽ tính toán và trả lại kết quả là cử động của nhân vật ảo.

“Phần mềm cũng sẽ hỗ trợ các nghệ sĩ trong việc đăng ký, lưu lại thiết bị mới được lắp ghép vào hình dạng của nhân vật,” Giáo Sư Sorkine-Hornung giải thích. “Qua đó, người nghệ sĩ có thể gắn kết các khớp thực của mô hình với các khớp ảo của nhân vật. Bằng cách này, dù con rối nhập liệu có một chiếc cổ khá ngắn thì nó vẫn có thể tạo chuyển động của một nhân vật hươu cao cổ dễ dàng”.

Các nhà nghiên cứu ở Zurich không phải những người duy nhất có mục tiêu tạo ra thiết bị nhập liệu trực tiếp như vậy. Có rất nhiều các nhà nghiên cứu khác ở các viện nghiên cứu khác cũng đang làm việc với các thiết bị nhập liệu cho nhân vật ảo bằng nhiều phương pháp đa dạng. Ví dụ như một con rối được điều khiển bằng tay và các cử động sẽ được thu lại bởi một thiết bị motion-capture, hoặc bằng các cảm biến tích hợp tại các khớp của nó. Tuy nhiên, chúng vẫn kém linh hoạt hơn thiết bị của IGL/ALS, bởi chúng thường chỉ có một hình dạng duy nhất (ví dụ: hình dạng con người), và sẽ khó để tạo cử động cho các nhân vật khác, ví dụ 1 con cẩu chả hạn.

Để khuyến khích nghiên cứu phát triển xa hơn nữa, các nhà nghiên cứu tại IGL/ALS đã quyết định đặt thiết kế của các khối xây dựng của thiết bị dưới dạng open hardware (phần cứu mở). Tất nhiên, phương án thương mại hóa một bộ gồm khoảng 25 khối được tạo sẵn cũng đang được cân nhắc.

Ông Sorkine-Hornung cho biết “Mọi người đều có thể in 3D các bộ phận riêng biệt và chỉ cần chút kiến thức về cơ khí, kỹ thuật để có thể tích hợp các mạch điện với nhau. Chúng tôi sẽ giới thiệu thiết bị này tại hội nghĩ SIGGRAPH và triển lãm tại hội chợ Computer Graphics and Interactive Techniques vào tháng 8 này. Vì vậy chúng tôi hy vọng sẽ nhận được một số phản đồi để xem có cần thiết cho ra mắt bộ sản phẩm thương mại hay không và đồng thời cải tiến thiết kế hiện tại.”

Mặc dù hiện tại công nghệ này mới chỉ giới hạn trong cử động uốn và xoắn ở hai mức cử động riêng biệt chứ không thể liền mạch, nhưng các nhà nghiên cứu đang dự địch thử nghiệm ý tưởng dùng khớp tròn để tạo ra các cử động dễ dàng và gần giống thực hơn.

Kết quả của nghiên cứu này sẽ được trình diễn tại hội nghị SIGGRAPH vào tháng 8. Video dưới đây sẽ cho bạn hiểu rõ hơn về công nghệ mới này.


Biên dịch: Trungmaster, theo Gizmag

Link công bố:
Jacobson A, Panozzo D, Glauser O, Pradalier C, Hilliges O, Sorkine-Hornung O: Tangible and Modular Input Device for Character Articulation. To be presented at ACM SIGGRAPH 2014, Vancouver.


CHIA SẺ ĐỂ LAN TỎA

0Shares
0

Bình Luận

comments

Bài viêt liên quan