Các công cụ AI tổng quát đang thâm nhập sâu vào DN, dần phổ biến như smartphone và laptop
Nền tảng AI tổng quát dành cho DN Writer gần đây đã thăm dò ý kiến của 450 giám đốc điều hành (CEO) tại các DN lớn, để đánh giá ý kiến của họ về các chatbot tổng hợp do AI cung cấp, và nhận thấy gần một nửa (46%) CEO tin rằng một nhân viên nào đó trong công ty của họ có thể đã vô tình chia sẻ dữ liệu của công ty với công cụ này.
Nhưng công cụ này vẫn cực kỳ phổ biến. Gần một nửa (47%) nhân viên sử dụng ChatGPT tại nơi làm việc hàng ngày (các nền tảng AI tổng quát như CopyAI được sử dụng trong 35% trường hợp và Anyword trong 26%). Họ sử dụng nó trong các bộ phận khác nhau, từ CNTT (30%), đến vận hành (23%), từ chăm sóc khách hàng (20%), đến tiếp thị (18%), từ hỗ trợ (16%) đến bán hàng và nhân sự (15%).
Hầu hết thời gian, các công cụ được sử dụng để sao chép, bao gồm quảng cáo, tiêu đề, blog, bài viết cơ sở kiến thức, v.v.
Michael Chui, một đối tác tại Viện Toàn cầu McKinsey, so sánh ChatGPT với cách người lao động sử dụng máy tính cá nhân hoặc điện thoại. “Trong suốt lịch sử, chúng ta đã tìm ra những công nghệ hấp dẫn đến mức các cá nhân sẵn sàng trả tiền để sở hữu nó. Mọi người đã mua điện thoại di động (ĐTDĐ) và laptop từ rất lâu trước khi các DN cung cấp thiết bị cho họ. Và giờ đây chúng ta đang thấy điều tương tự với AI sáng tạo”, ông nói và cho rằng vì thế các công ty cần “bắt kịp” cách tiếp cận các biện pháp bảo mật khi nhân viên sử dụng ChatGPT.
Mặc dù ChatGPT chỉ có thể sử dụng dữ liệu được tạo cho đến tháng 9/2021, nhưng điều này rất có thể thay đổi trong tương lai, chưa kể đến việc các công cụ khác có thể không thiết lập loại dự phòng này. Điều đó có nghĩa là các công cụ có thể sử dụng dữ liệu nhạy cảm trong các mô hình học tập của nó và sau đó chia sẻ chúng với những người dùng khác. Do đó, các công ty có dữ liệu nhạy cảm có nguy cơ cao bị rò rỉ dữ liệu. Và như vậy, ChatGPT đã bị cấm bởi 32% số người được hỏi, tiếp theo là CopyAI (28%) và Jasper (23%).
“Các nhà quản trị DN cần lưu ý. Có một lợi thế cạnh tranh thực sự trong việc triển khai AI tổng quát trong các DN, nhưng rõ ràng có khả năng xảy ra rủi ro về bảo mật, quyền riêng tư và danh tiếng thương hiệu”, May Habib, CEO và đồng sáng lập của Writer cho biết.
“Nếu các DN không kiểm soát việc triển khai AI tổng quát của mình, DN đó chắc chắn không thể kiểm soát chất lượng đầu ra cũng như rủi ro về thương hiệu và bảo mật".
Nhiều ông lớn đã cấm nhân viên sử dụng ChatGPT
Một trường hợp điển hình về việc thận trọng với các công cụ AI tổng quát như ChatGPT là Apple. OpenAI vừa phát hành ứng dụng ChatGPT chính thức cho iPhone. Công cụ này đã trở nên nổi tiếng với việc trả lời các yêu cầu của người dùng và giải quyết các vấn đề từ đơn giản đến phức tạp nhất nhờ trí tuệ nhân tạo. Tuy nhiên, người dùng iPhone có thể sử dụng ChatGPT song nhân viên Apple lại bị công ty cấm sử dụng những công cụ như vậy. Trong một bản ghi nhớ nội bộ, công ty nói rằng nhân viên không thể sử dụng AI tổng quát trong công việc.
Theo Wall Street Journals (WSJ), lý do đằng sau lệnh cấm ChatGPT của Apple là vì lo ngại các nền tảng AI này thu thập dữ liệu bí mật từ nhân viên. Ngoài ChatGPT, Apple cũng đã cấm nhân viên của mình sử dụng Copilot của GitHub, thuộc sở hữu của Microsoft. Với Copilot, các nhà phát triển có thể tự động viết mã.
Apple nổi tiếng với các biện pháp bảo mật nghiêm ngặt để bảo vệ thông tin về các sản phẩm trong tương lai và dữ liệu người tiêu dùng.
Ngoài Apple, nhiều tổ chức lớn cũng đã trở nên cảnh giác với công nghệ này khi nhân viên của họ bắt đầu sử dụng ChatGPT cho mọi thứ, từ viết email và tài liệu tiếp thị cho đến phần mềm viết mã. Cụ thể, JPMorgan Chase và Verizon đã hạn chế sử dụng các nền tảng như vậy. Theo nguồn tin của WSJ, Amazon đã yêu cầu các kỹ sư của mình sử dụng công cụ AI nội bộ của riêng mình thay vì của bên thứ ba.
Có kế hoạch bảo vệ dữ liệu ngay từ khi thiết kế, đào tạo công cụ AI
Với ChatGPT của OpenAI, Bing AI của Microsoft, Bard của Google và kế hoạch của Elon Musk cho chatbot của riêng mình, AI tổng quát đang xâm nhập sâu vào môi trường làm việc. Theo hãng tin CNBC, các giám đốc an ninh thông tin (CISO) cần thận trọng khi tiếp cận công nghệ này và chuẩn bị các biện pháp bảo mật cần thiết. Bởi vì, không phải công ty nào cũng có GPT riêng, vì vậy, các công ty cần theo dõi cách người lao động sử dụng công nghệ này.
Những biện pháp bảo mật này cần được áp dụng như những quy tắc kinh doanh, nghĩa là cần sự nghiêm túc và đồng nhất, từ việc giám sát thông tin nào được chia sẻ trên nền tảng AI hay tích hợp GPT do công ty chấp thuận tại nơi làm việc. Chuyên gia của McKinsey cho rằng các công ty cần theo dõi những gì nhân viên nói với chatbot và đảm bảo rằng thông tin chia sẻ trên công cụ chatbot đó phải được bảo vệ.
Chui nói: “Công ty chắc chắn không muốn nhân viên nói chuyện công khai, chia sẻ thông tin bí mật với một chatbot. Vì vậy, các giám đốc an toàn thông tin (CISO) có thể áp dụng phương tiện kỹ thuật, chỉ cho phép nhân viên sử dụng những phần mềm chatbot đã được cấp phép và có thỏa thuận pháp lý hiệu lực thi hành về dữ liệu”.
Việc cấp phép sử dụng phần mềm phải đi kèm với việc kiểm tra và bổ sung các quy định cần thiết. Bảo vệ thông tin bí mật, quy định về nơi lưu trữ thông tin và hướng dẫn cách nhân viên có thể sử dụng phần mềm - tất cả đều là quy trình chuẩn khi công ty cấp phép cho nhân viên sử dụng phần mềm AI.
Ngoài cấp phép cho nhân viên sử dụng một công cụ ứng dụng phần mềm AI sáng tạo của các công ty khác, một lựa chọn bảo mật khác cho các công ty là phát triển GPT của riêng họ hoặc thuê các đối tác tạo ra công nghệ này, dành riêng một phiên bản tùy chỉnh cho công ty sử dụng.
Theo khảo sát, hầu hết các công ty không có kế hoạch gắn bó lâu dài với phiên bản miễn phí, vì 59% cho biết họ đã mua (hoặc dự định mua) ít nhất một công cụ như vậy trong năm nay. 1/5 (19%) đang sử dụng năm công cụ AI tổng quát trở lên. Họ coi việc đó giúp tăng năng suất của nhân viên, tạo đầu ra có chất lượng cao hơn và tiết kiệm chi phí.
Nếu một công ty tạo GPT của riêng mình, phần mềm sẽ có thông tin chính xác mà họ muốn nhân viên có quyền truy cập. Dù công ty chọn con đường nào, các CISO cũng nên nhớ rằng những cỗ máy này hoạt động dựa trên cách chúng đã được dạy. Điều quan trọng là phải có kế hoạch bảo vệ dữ liệu ngay từ khi thiết kế, đào tạo và cung cấp dữ liệu cho công cụ./.