Nghiên cứu một smartwatch có khả năng phát ra giọng nói
Các nhà nghiên cứu từ Phòng thí nghiệm Khoa học Máy tính và Phòng thí nghiệm Trí tuệ Nhân tạo của MIT (CSAIL) và Viện Khoa học và Kỹ thuật Y khoa (IMES) đã phát triển một smartwatch có thể phát hiện ra giọng nói đã được phát triển bởi r.
Các nhà nghiên cứu có thể xác định liệu một cuộc trò chuyện có vui vẻ, buồn hay trung lập dựa trên cách nói của một người và các dấu hiệu quan trọng khác.
>>>> Xem thêm mẫu đồng hồ Android http://www.donghonews.com/2017/09/mavado-thiet-lap-android-wear-2.0.html
Các nhà nghiên cứu gợi ý rằng một thiết bị như vậy có thể giúp những người có các tình trạng như Aspergers Syndrome, những người có thể đấu tranh để hiểu đầy đủ về giao tiếp.
Hệ thống có thể phân tích các tín hiệu âm thanh, văn bản và sinh lý để xác định tông màu tổng thể của câu chuyện với độ chính xác 83%.
Sử dụng các kỹ thuật học tập sâu, hệ thống cũng có thể cung cấp 'điểm cảm xúc' cho khoảng thời gian năm giây cụ thể trong một cuộc trò chuyện.
"Khi làm như chúng ta biết, đây là thử nghiệm đầu tiên đó thu thập ngày đã cho Cả hai về thể chất và bài phát biểu cách thụ động nhưng mạnh mẽ, ngay cả khi đối tượng đang có, tương tác không có cấu trúc tự nhiên", Mohammad Ghassemi, một nghiên cứu sinh tại trường Đại học nói.
Ông nói thêm: "Kết quả của chúng tôi cho thấy có thể phân loại giọng điệu tình cảm của các cuộc trò chuyện theo thời gian thực".
Nếu nhiều người trong một cuộc trò chuyện đã sử dụng các thiết bị cùng một lúc, hiệu suất của hệ thống sẽ được cải thiện hơn nữa.
Hệ thống nguyên mẫu được dựa trên một Samsung Simband, nào chụp các tính năng như chuyển động, nhịp tim, huyết áp, chảy máu, và nhiệt độ da. Hệ thống cũng thu thập dữ liệu âm thanh và bản ghi văn bản để phân tích độ cao, độ cao, năng lượng và từ vựng của người nói.
Sau khi bắt giữ 31 cuộc hội thoại khác nhau của mỗi vài phút, đội huấn luyện hai thuật toán trên ngày: Một phân loại theo tính chất tổng thể của cuộc hội thoại là một trong hai vui hay buồn, trong khi thứ hai được phân loại mỗi khối năm giây của mỗi cuộc nói chuyện tích cực như, tiêu cực, hay trung tính.
Các thiết bị có thể được tiếp tục honed trong tương lai để cung cấp phân tích chi tiết hơn.
Tuka Alhanai, một nghiên cứu sinh đã làm việc cho dự án, đã gợi ý rằng các nhà nghiên cứu đã áp dụng cách tiếp cận khác với trí thông minh nhân tạo. Trong các mạng thần kinh truyền thống, bà nói, tất cả các tính năng về dữ liệu được cung cấp cho thuật toán ở cơ sở của mạng. Ngược lại, nhóm của cô nhận thấy rằng họ có thể cải thiện hiệu suất bằng cách tổ chức các tính năng khác nhau ở các lớp khác nhau của mạng.
"Hệ thống này nhặt trên như thế nào, ví dụ, tình cảm trong phiên mã văn bản đã tóm tắt hơn dữ liệu gia tốc kế thô," Alhanai nói. "Đó là khá đáng chú ý đó máy có thể xấp xỉ như thế nào con người chúng ta nhận thức Những tương tác này, mà không cần đầu vào quan trọng từ chúng tôi như các nhà nghiên cứu."
Bà nói thêm rằng mặc dù hệ thống vẫn chưa đủ tin cậy để cung cấp "huấn luyện xã hội", đó là mục tiêu.
"Bước tiếp theo của chúng tôi là cải thiện granularity cảm xúc của thuật toán để nó là chính xác hơn tại gọi ra những khoảnh khắc nhàm chán, căng thẳng, và thú vị, thay vì chỉ ghi nhãn tương tác là 'tích cực' hoặc 'tiêu cực'," Alhanai nói. "Phát triển công nghệ có thể đưa ra những xung động của cảm xúc con người có tiềm năng để cải thiện đáng kể cách chúng ta giao tiếp với nhau."
ConversionConversion EmoticonEmoticon