Responsive image

22 Tháng Mười Hai 2024

Công nghệ Big Data trong thể thao ngày nay

Theo www.tdtt.gov.vn

 

Giới thiệu. “Big data” là tập hợp các khối dữ liệu lớn, phức tạp, kích cỡ của những khối dữ liệu này quá lớn để xử lý bằng phương pháp tính toán thông thường. Các hoạt động bao gồm lưu trữ dữ liệu, tìm kiếm các tập dữ liệu trong thời gian khả thi nhất và thực hiện phân tích để thu được các thông tin hữu ích. Chúng ta đang sống trong thời đại thông tin, trong đó hầu hết mọi khía cạnh trong cuộc sống của chúng ta đều được số hóa. Chúng ta có vệ tinh chụp những bức ảnh về thế giới của chúng ta một cách vô cùng chi tiết. Chúng ta có những kinh khí cầu tích hợp cảm biến để thu thập thông tin về khí tượng được sử dụng cho dự báo thời tiết. Chúng ta mua sắm trên mạng và giao tiếp với nhau qua mạng Internet. Chúng ta còn có thể sử dụng điện thoại để tính thời gian ngủ, gọi chúng ta dậy khi trời

Giới thiệu

“Big data” là tập hợp các khối dữ liệu lớn, phức tạp, kích cỡ của những khối dữ liệu này quá lớn để xử lý bằng phương pháp tính toán thông thường. Các hoạt động bao gồm lưu trữ dữ liệu, tìm kiếm các tập dữ liệu trong thời gian khả thi nhất và thực hiện phân tích để thu được các thông tin hữu ích. Chúng ta đang sống trong thời đại thông tin, trong đó hầu hết mọi khía cạnh trong cuộc sống của chúng ta đều được số hóa. Chúng ta có vệ tinh chụp những bức ảnh về thế giới của chúng ta một cách vô cùng chi tiết. Chúng ta có những kinh khí cầu tích hợp cảm biến để thu thập thông tin về khí tượng được sử dụng cho dự báo thời tiết. Chúng ta mua sắm trên mạng và giao tiếp với nhau qua mạng Internet. Chúng ta còn có thể sử dụng điện thoại để tính thời gian ngủ, gọi chúng ta dậy khi trời sáng và đánh giá chất lượng giấc ngủ của chúng ta. Kết quả là chúng ta bị tấn công bởi thông tin và một số thông tin không hề dễ dàng để có thể hiểu được. Theo một nghiên cứu được thực hiện bởi IBM thì hàng năm 2,5 tỷ byte dữ liệu mới được tạo ra, 90% dữ liệu của chúng ta hiện có đã được tạo trong hai năm gần đây và mọi thứ không hề chậm lại. Viện Toàn Cầu McKinsey dự báo trong thời gian tới dữ liệu tăng trưởng 40% trong mỗi năm.

Mặc dù thuật ngữ “Dữ liệu lớn” làm chúng ta liên tưởng tới thuộc tính về kích thước tuy vậy trong thực tế kích thước không phải là thuộc tính duy nhất biến tập dữ liệu thành “Dữ liệu lớn”. Có một cách tiếp cận 3V rất phổ biến, nó thường dùng dể mô tả đặc điểm chính của dữ liệu lớn. Nó bao gồm khối lượng (Volume), vận tốc (Velocity), độ đa dạng (Variety). Cần lưu ý rằng “Dữ liệu lớn” có thể được tạo nên từ một hay tất cả các thuộc tính trên

 Vận tốc và kích thước là những thuộc tính dễ đo lường của tập dữ liệu, chúng có mối quan hệ chặt chẽ với nhau bởi nếu dữ liệu được xử lý nhanh hơn thì dữ liệu được tạo ra sẽ nhiều hơn. Độ đa dạng thường đi kèm với khó đo lường hơn và thường đề cập đến hai khía cạnh của dữ liệu: sự không đồng nhất,  tức là bao gồm các loại dữ liệu khác nhau như hình ảnh, văn bản, mảng số … và phi cấu trúc, tức là không có cấu trúc chung cho các mẫu khác nhau. Tính không đồng nhất và phi cấu trúc chủ yếu là do bởi các nguồn dữ liệu khác nhau cung cấp cho hệ thống dữ liệu.

Các nguồn tài nguyên và cách sử dụng

Thực tế có vô số dạng tài nguyên của dữ liệu, sau khi thế giới hòa nhập với hệ thống máy tính. Vì thế, chúng ta sẽ bắt đầu xem xét về các nguồn dữ liệu chính và lợi ích mà chúng đem lại trong việc phân tích những dữ liệu tập hợp từ những nguồn này.

Hệ thống cảm biến và giám sát 

Có nhiều loại cảm biến, có thể được mô tả như là công cụ số hóa các thực thể vật lý và nằm rải rác khắp nơi trên thế giới. Ví dụ, các cảm biến trên máy bay ghi lại hàng gigabyte dữ liệu mỗi lần, được sử dụng để thực hiện các biện pháp phòng ngừa nhằm ngăn ngừa rủi ro. Hệ thống giám sát được lắp đặt trong các đô thị thu thập các video để giúp cơ quan thực thi pháp luật giám sát các khu vực công cộng và hỗ trợ các cuộc điều tra tội phạm.

Mạng xã hội

Khi Internet trở nên phổ biến, bản thân người dùng cũng trở thành một nguồn tài nguyên để tạo ra dữ liệu. Ngày nay, mọi người chia sẻ mọi thứ qua mạng xã hội: Twitter có thể giúp bày tỏ những gì họ cảm nhận được, Foursquare là cộng cụ giúp họ đăng video của mình lên youtube, ….

Với hơn 2 tỷ người dùng Internet, lượng dữ liệu được tạo ra là vô cùng lớn. Ví dụ vào tháng 3 năm 2012, Twitter đã thông báo họ nhận được 340 triệu tweet mỗi ngày. Tương tự, Facebook ghi nhận 757 triệu lượt tương tác mỗi ngày. Số người dùng hoạt động trong tháng 12 năm 2012 được Youtube ghi lại, cứ mỗi phút lại có 1 video được đăng lên. Như vậy mọi người sử dụng những dữ liệu này để giao tiếp với nhau và chia sẻ những cái nhìn thoáng qua về cuộc sống của họ, đó không phải là cách sử dụng duy nhất của dữ liệu được tạo. Asur và Huberman (2010) đã cho thấy rằng việc phân tích các tweet có thể dẫn đến những suy đoán đáng kinh ngạc, chính xác hơn cả sự dự đoán của thị trường. Các phân tích tương tự cũng đang được áp dụng cho thị trường chứng khoán và các dự đoán bầu cử.

Chăm sóc sức khỏe

Trong quá trình chẩn đoán y tế, các bác sĩ luôn cố gắng thu thập càng nhiều dữ liệu về bệnh nhân của họ càng tốt. Họ xét nghiệm máu người bệnh để trích xuất các chỉ số vật lý và sinh lý. Họ sử dụng điện tâm đồ để ghi chép lại hoạt động tim mạch của bệnh nhân. Có nhiều thử nghiệm khác được thực hiện trên bệnh nhân để thu thập trạng thái của các bộ phận trên cơ thể con người vì mọi khía cạnh của cơ thể sống đều là những nguồn dữ liệu lớn.

Sau đó, các bác sĩ sẽ phân tích chúng để tìm ra biểu hiện của bệnh và biến chứng có thể xảy đến. Bản chất của quá trình này là thu thập các thông tin quan trọng để từ đó suy ra thông tin cần thiết. Ví dụ như Bressan (2012) đã phát triển một hệ thống được gọi là Artemis để theo dõi tình trạng của trẻ sinh non và hỗ trợ đưa ra các quyết định lâm sàng cho các bác sĩ. Trong tương lai, người ta dự đoán rằng các hệ thống hỗ trợ chuẩn đoán như vậy sẽ đóng những vai trò quan trọng trong y học.

Các phương diện khác

Mỗi lần chúng ta tương tác trên Internet là một lần ta cung cấp thông tin cho các tập đoàn và tổ chức. Thoạt nhìn, những dữ liệu này được tạo ra giống như cái cách mà mà người dùng sử dụng trình duyệt và mua hàng trên đó vậy.

Các tệp dữ liệu cơ bản được tạo ra trong một hệ thống mua sắm trực tuyến sẽ bao gồm những mục chứa từ khóa để tìm kiếm cũng như các mặt hàng được chọn và các giao dịch đã thực hiện. Tuy nhiên, có rất nhiều thông tin quý giá có tương quan ngầm giữa các thư mục này, chẳng hạn như số lượng mặt hàng cùng loại đã được duyệt trước khi mua, hồ sơ của người dùng đã mua một mặt hàng cụ thể....

Với việc có thể khai thác các tệp dữ liệu một cách khôn ngoan và tận dụng mối liên kết giữa chúng, các hệ thống đã được xây dựng để đưa ra các phỏng đoán rằng liệu người dùng chỉ quan tâm đến món hàng đó hay thực sự có ý định mua nó. 

Những tập hợp dữ liệu này cũng được sử dụng trong các hệ thống đề xuất để cố gắng tìm ra sở thích của người dùng và đưa ra các mục chọn lựa khác thích hợp hơn. Sự thành công của những hệ thống này có thể được thấy trên nhiều trang web, nơi chúng ta có thể mua những bộ quần áo mà chúng ta muốn mua, những bộ phim chúng ta thích, những người chúng ta có thể biết…

Lưu trữ Dữ liệu Lớn “Big Data”

Như đã trình bày từ trước, tổng số lượng dữ liệu này và tốc độ tạo ra chúng là rất khủng khiếp. Điều này dẫn đến một bài toán khó trong việc lưu trữ dữ liệu và quan trọng hơn là việc truy cập nó nhanh nhất có thể.

Vì không thể phát triển siêu máy tính để xử lý cả hai vấn đề trên, nên việc xây dựng hệ thống đám mây bao gồm nhiều máy tính kết nối qua mạng là một phương thức phổ biến. Một trong những mối quan tâm chính khi xây dựng các hệ thống này là khả năng mở rộng, tức khả năng tăng số lượng phần cứng để bổ sung dung lượng. Các hệ thống phân tán cho phép người sử dụng gia tăng số lượng máy tính (hay số lượng mắt xích) trong hệ thống điện toán đám mây một cách dễ dàng. Từ khi dữ liệu không tụ hợp tại một điểm, mà được chia thành nhiều phần và được phân bố ở nhiều điểm kết nối khác nhau, tiếp nhận phần cứng không hề ảnh hưởng đến phần dữ liệu đang tồn tại.

Tính khả dụng của dữ liệu cũng là một điểm quan tâm khác, đó là khả năng cung cấp dịch vụ ngay cả trong trường hợp phần cứng bị lỗi. Để có thể phục vụ ngay cả khi một số điểm kết nối gặp sự cố, dữ liệu phải được sao chép và lưu trữ ở nhiều vị trí khác nhau. Nếu bất kỳ điểm nào kết nối thất bại, một điểm khác sẽ lưu trữ một bản sao của dữ liệu đó, để có thể tiếp nhận và phục vụ theo các yêu cầu.

Độ trễ, là khoảng thời gian hệ thống cần để trích suất các dữ liệu được yêu cầu và có thể rất quan trọng đối với các ứng dụng. Hệ thống trò chuyện của Facebook là một ví dụ về hệ thống thời gian thực chạy trên đám mây lưu trữ (Borthakur, 2011). Mặc dù có mất thời gian trong khi đọc sao chép dữ liệu, khoảng thời gian bị mất trong khi gửi và nhận dữ liệu là nguyên nhân chính xảy ra độ trễ, đặc biệt hay xảy ra với các hệ thống bị phân chia do địa lý. Do đó, việc hạn chế giao tiếp ở khoảng cách lớn là mục đích chính trong khi thiết kế các hệ thống. Người ta có thể phân phối những bản sao của các dữ liệu như vậy tới các trang web lưu trữ dữ liệu và nguồn yêu cầu gần nhất. Tuy nhiên, tốc độ sao chép sẽ giảm, vì các bản sao sẽ được gửi đến các địa điểm khác nhau và một vài điểm xa xôi, và một lần nữa sẽ gây ra một khoảng cách lớn trong giao tiếp . Bằng cách thiết kế thông minh và một hệ thống với hàng loạt máy tính làm được những điều mà một siêu máy tính sẽ rất khó khăn mới làm được khi đó chi phí giảm đi đáng kể. Vì vậy các hệ thống này đang thu hút rất nhiều doanh nghiệp trên toàn thế giới. Phần lớn những hệ thống mà các doạnh nghiệp đang sử dụng nhiều nhất là: Hệ thống tệp phân tán Hadoop của Apache (HDFS) và Hệ thống tệp của Google (GFS).

Lượng dữ liệu trong thế giới của chúng ta tăng trưởng theo cấp số nhân trong những năm gần đây. Điều này tạo ra một tập hợp dữ liệu rất lớn trong các tổ chức. Doanh nghiệp muốn tự xử lý dữ liệu lớn để tạo giá trị từ dữ liệu và cải thiện năng suất đồng thời đổi mới và dễ dàng loại bỏ các đối thủ cạnh tranh. Tuy nhiên việc xử lý dữ liệu lớn là không hề dễ dàng để có được thông tin có giá trị trong đó. Ngày nay rất nhiều tổ chức đang cố gắng áp dụng các hệ thống dữ liệu lớn. Tuy nhiên, vẫn còn một số nhược điểm trong ứng dụng Dữ liệu lớn đối với các công ty quy mô vừa và nhỏ.

Trước hết, việc ứng dụng các công nghệ này đòi hỏi một trình độ chuyên môn cao về phần mềm. Thứ hai, nó không lọt vào mắt các doanh nghiệp vì người dùng cần phải viết các script Java, Pig, Hive. Nhược điểm cuối cùng và quan trọng nhất là việc phải quản lý các tác vụ song song với những công cụ xử lý dữ liệu phức tạp mà phù hợp. Mặc dù khái niệm Dữ liệu Lớn hay “Big Data” có rất nhiều ưu điểm, nhưng việc quản lý chúng đối với nhiều doanh nghiệp vừa và nhỏ vẫn còn gặp khó khăn.

Dữ liệu lớn được ứng dụng như thế nào?

Cũng giống như các sự đổi mới trước đó, những hoài nghi và phản bác luôn nảy sinh và kìm hãm sự phát triển. Lập luận lớn nhất chống lại việc phân tích các nguồn dữ liệu là vấn đề về quyền riêng tư. Việc dữ liệu được sử dụng bởi các công ty và chính phủ đã làm dấy lên những lo lắng rằng cuộc sống hàng ngày của chúng ta đang bị theo dõi và ghi chép lại. Dù đây có phải là hành vi xâm phạm quyền riêng tư hay không thì vấn đề này cần phải được xem xét một cách nghiêm túc và hàng loạt quy định phải được ban hành để điều chỉnh lĩnh vực này. Mặt khác, không thể phủ nhận việc phân tích dữ liệu đã được sử dụng rộng rãi và ảnh hưởng lớn đến cuộc sống của chúng ta. Mà cho dù chúng ta có nhận thức được điều đó hay không, nó cũng đã cải thiện lối sống của chúng ta. Bên cạnh đó, lợi ích mà các công ty được hưởng từ việc này không nghi ngờ gì nữa là rất lớn. Các công ty tiếp thị có thể cung cấp các sản phẩm phù hợp hơn cho các khách hàng nhất định dựa trên thói quen mua sắm của họ, nhiều công cụ tìm kiếm trên internet cũng có thể đưa ra các từ khóa được sử dụng nhiều nhất dựa trên các trang web mà khách hàng đã truy cập trước đó. Xét cho cùng, sống trong kỷ nguyên của công nghệ và thông tin, bản thân nó đã là một trong những tài sản quan trọng nhất và đây cũng chính là những gì mà các nhà phân tích dữ liệu lớn làm: biến dữ liệu thành thông tin cho chúng ta. Mặc dù Dữ liệu lớn được sử dụng rộng rãi để tối ưu hóa các quy trình kinh doanh, nhưng việc sử dụng dữ liệu này không chỉ bao gồm mục đích thương mại. Nhiều cơ quan và dịch vụ công cũng đang tận dụng nó. Lực lượng cảnh sát sử dụng các công cụ dữ liệu để bắt tội phạm, thậm chí dự đoán được hoạt động của chúng và thậm chí, các công ty thẻ tín dụng cũng sử dụng dữ liệu lớn để phát hiện các giao dịch gian lận. Một số thành phố thậm chí đang sử dụng dữ liệu lớn với mục đích biến mình thành một thành phố thông minh, nơi xe buýt có thể “chờ đợi” những hành khách bị nhỡ tàu và hệ thống đèn tín hiệu có thể dự đoán lưu lượng và đưa ra các điều chỉnh giao thông để giảm thiểu ùn tắc.

Như đã bàn về các phương án đổi mới, cái giá trị của các công cụ phân tích dữ liệu đang tiếp tục giảm dần, vì nhớ có thành quả của sự phát triển công nghệ cao, những khám phá được tiến hành tại các trường đại học và từ những đội nghiên cứu của các công ty tư nhân. Do đó, những công cụ này đang trở nên dễ tiếp cận hơn. Nó cho thấy rằng, công cụ phân tích dữ liệu lớn đang dần trở nên quan trọng trong các xu hướng công nghệ ngày nay. Bỏ qua vấn đề xu hướng, ta thấy được một sự thật rằng các cá nhân, các công ty và các cơ quan công quyền nên chuẩn bị sẵn sàng cho những thứ sẽ ảnh hưởng tới cuộc sống của chúng ta.

Các ví dụ được cung cấp ở trên chỉ ra rằng việc phân tích Dữ liệu Lớn đã can thiệp vào nhiều khía cạnh khác nhau trong cuộc sống của chúng ta. Một trong những khía cạnh đó là thể thao. Chúng ta chính là những nhân chứng sống chứng minh rằng việc phân tích Dữ liệu Lớn đang được sử dụng hiệu quả trong hầu hết các môn thể thao phổ biến trên toàn thế giới ngày nay. Ví dụ, công cụ IBM SlamTracker được sử dụng trong các giải đấu quần vợt; phân tích video theo dõi các trận đấu của mọi cầu thủ bóng đá, bóng chày và những công nghệ cảm biến trong nhiều thiết bị thể thao như bóng rổ hoặc gậy đánh gôn cho phép chúng ta thu nhận các thông tin phản hồi (thông qua điện thoại thông minh và điện toán đám mây) về môn thể thao đó và cách để cải thiện. Nhiều đội thể thao chuyên nghiệp cũng theo dõi các vận động viên trong cuộc sống thường nhật, chẳng hạn như sử dụng công nghệ thông minh để theo dõi tình trạng dinh dưỡng và giấc ngủ, cũng như các cuộc trò chuyện trên mạng xã hội để giám sát tình trạng cảm xúc.

Ứng dụng của Dữ liệu Lớn trong bóng đá

Bóng đá là môn thể thao phổ biến nhất trên toàn thế giới, đã phát triển thành một ngành công nghiệp khổng lồ quy tụ những người hâm mộ từ khắp nơi trên thế giới và tạo ra những khoản thu nhập khổng lồ cho các bên liên quan.

Ngày nay, tất cả các sân vận động chuẩn bị cho giải bóng đá Ngoại hạng Anh đều được trang bị một bộ camera kỹ thuật số theo dõi mọi cầu thủ trên sân. Mười điểm dữ liệu được thu thập mỗi giây trên mỗi người trong số 22 cầu thủ trên sân, tạo ra 1,4 triệu điểm dữ liệu sau mỗi trận. Sau đó, các nhà phân tích giải mã mớ dữ liệu đó để xác định mọi cú tắc bóng, cú sút hoặc đường chuyền rồi người quản lý và nhà phân tích hiệu suất sẽ có được cái nhìn sâu sắc hơn về những gì đã xảy ra trong mỗi trận đấu.

Trong các buổi tập, cầu thủ cũng đeo thiết bị theo dõi GPS, cảm biến gia tốc và máy theo dõi nhịp tim để phân tích hiệu suất tập luyện và tối ưu hóa sự chuẩn bị của họ. Các thiết bị theo dõi như vậy hiện không được phép trong các trận đấu chính nhưng lại cung cấp số các liệu thống kê quan trọng. Một số câu lạc bộ thậm chí đã bắt đầu kết hợp việc phân tích hiệu suất tập luyện và các trận đấu của họ với dữ liệu từ việc theo dõi các khía cạnh khác trong cuộc sống của cầu thủ, chẳng hạn như chế độ ăn uống và thói quen ngủ của anh ta. 

Mặc dù người ta còn tranh cãi rằng liệu thể thao đã mất đi tính hấp dẫn và “linh hồn” của nó hay không khi mà công nghệ đang dần trở thành một phần trong chính các môn thể thao đó, nhưng sẽ an tâm hơn nếu như ta chỉ ra rằng một đội bóng không đơn thuần chỉ bao gồm các cầu thủ trên sân, mà gồm cả huấn luyện viên, quản lý và người phân tích chiến thuật. Kết quả của một trận đấu đương nhiên phụ thuộc nhiều vào các cầu thủ, nhưng sự cạnh tranh khốc liệt trong các bộ môn thể thao đang đòi hỏi các nhà quản lý áp dụng khoa học dữ liệu cũng như các công cụ hỗ trợ khác nhằm giành lấy nhiều lợi thế hơn nữa.

Thỏa thuận hợp tác giữa SAP và Hiệp hội bóng đá Đức (DFB) chắc chắn đã thu hút nhiều sự chú ý hơn sau khi Đội tuyển Quốc gia Đức vô địch FIFA World Cup 2014. Nó đã dẫn đến SAP Match Insight được phép sử dụng trong việc phân tích đào tạo, chuẩn bị cho các giải đấu. SAP Match Insight cho phép các huấn luyện viên và tuyển trạch viên xử lý lượng lớn dữ liệu để tìm và đánh giá các tình huống chính trong mỗi trận đấu nhằm cải thiện hiệu suất của cầu thủ và đội. Các thống kê còn chỉ ra rằng mười người chơi với ba quả bóng có thể tạo ra hơn bảy triệu điểm dữ liệu chỉ trong mười phút. Do đó, tổng dung lượng dữ liệu trong toàn bộ trận thi đấu hoặc buổi tập lên đến một số lượng không tưởng. Trước đây không có cách nào xử lý nguồn thông tin này với những tính toán và thống kê thông thường, tuy nhiên SAP có thể xử lý những dữ liệu này với thời gian thực. Với SAP, các đội có thể phân tích một lượng lớn dữ liệu giúp tùy chỉnh những buổi tập để chuẩn bị cho những trận đấu sau. Sự tham gia của SAP, một trong những công ty đi đầu về sản xuất phần mềm quản lý thể thao trên thế giới đã tạo lên một bước ngoặt to lớn của việc phân tích dữ liệu trong thể dục thể thao và sẽ thay đổi trải nghiệm thể thao của nhiều người.

Kết luận

Dữ liệu lớn được dự đoán là một bước tiến lớn của khoa học máy tính. Khi quá trình tạo dữ liệu tăng lên theo cấp số nhân, các giải pháp mà dữ liệu lớn mang lại những có giá trị rất lớn trong việc đưa dữ liệu ra ánh sáng. Những ứng dụng thành công của dữ liệu lớn nằm xung quanh chúng ta: Từ sự thành công của các hệ thống AI chỉ xuất hiện trên một bộ phim, cho đến một hệ thống xử lý và hỗ trợ các bác sĩ trong việc chuẩn đoán các bệnh lý và kê đơn thuốc cho bệnh nhân. Những hệ thống dữ liệu lớn thông thường luôn quy định một lượng lớn khả năng đọc và viết được vận hành theo từng giây, với giá cả không hề nhỏ và không cần đến những tính toán tương đồng. Thông thường để tiếp cận được chúng ta sẽ phải sử dụng hàng loạt các máy tính để có thể phân tán được trung tâm của hệ thống điều hành. Nhiều biện pháp thông thường có thể kể đến như, hệ thống Google File và hệ thống Apache's Hadoop File, nó sẽ tạo ra một hệ thống hộp đen giúp tăng tính hiệu quả trong vận hành đọc và viết và còn tăng mức độ khả dụng của dữ liệu.

Dữ liệu lớn đã được được chứng minh là một nguồn tài nguyên lớn đem lại lợi thế cho cầu thủ và huấn luyện viên trong xác định thông tin và đưa ra những kết luận chuẩn xác để tối ưu hóa việc luyện tập và chiến thuật hợp lý. Những thông tin này có thể rất hữu dụng cho người hâm mộ và các công ty trong ngành công nghiệp thể thao. Nhờ sự tiến bộ của công nghệ thông tin, thế giới của thể thao đã được thay đổi trện mọi lĩnh vực, bao gồm trải nhiệm của người hâm mộ, quản lý các trận đấu, điều hành câu lạc bộ.

 

 Đỗ Ngọc Minh

Tài liệu tham khảo.

[1]. Asur, S. and Huberman, B. A. (2010). “Predicting the future with social media”. Web Intelligence and Intelligent Agent Technolog, IEEE/WIC/ACM International Conference, v.1, pp. 492-499.

[2]. Borthakur, D.,Gray, J., Sarma, J.S., Muthukkaruppan, K., Spiegelberg, N., Kuang, H., Ranganathan, K., Molkov, D., Menon, A., and Rash, S. (2011). “Apache hadoop goes realtime at facebook”. Proceedings of the 2011 ACM SIG MOD International Conference on Management of Data, pp. 1071-1080.

[3]. BressanN.,JamesA., and C. McGregor. (2012). “Trends and opportunities for integrated real time neonatal clinical decision support”. Biomedical and Health Informatics (BHI), 2012 IEEE EMBS International Conference, pp. 687-690.

[4]. Lam, C. (2010). “Hadoop In Action”. Manning Publications, USA, 2010.

[5]. Richtarik, P. and Takac M. (2012). Parallel coordinate descent methods for big data optimization. Mathematical Programming, 2012 – Springer.

[6]. Zikopoulos, P. C.,Eaton C., deRoos D., Deutsch T., and Lapis, G. (2012). “Understanding Big Data”. pp. 3-12, 2012.

Nguồn web.

[1]. Apache Mahout Project: http://mahout.apache.org/

[2]. Critiques of Big Data execution: http://en.wikipedia.org/wiki/Big_data#Critiques_

of_the_Big_Data_paradigm

[3]. Driving Marketing Effectiveness by Managing the Flood of Big Data:

http://www.ibmbigdatahub.com/infographic/flood-big-data

Print
959 Rate this article:
No rating

 

TRANG THÔNG TIN ĐIỆN TỬ - VIỆN KHOA HỌC THỂ DỤC THỂ THAO - TỔNG CỤC THỂ DỤC THỂ THAO
Người chịu trách nhiệm chính: PGS.TS. Nguyễn Danh Hoàng Việt
Địa chỉ: 141 Nguyễn Thái Học - Ba Đình - Hà Nội * Điện thoại: (84-4) 733 0286 * FAX: (84-4) 733 4419
Website: vkhtdtt.vn; Email: banbientap.vkhtdtt@gmail.com

 

Close Copyright [2018] by TTTT
Back To Top