When AI Makes All Our Decisions, Will We Still Think for Ourselves?

Lately, I’ve noticed an interesting trend. Friends around me—whether they are corporate executives, entrepreneurs, students, or office workers—have all started saying the same thing when it comes to decision-making: “Why not ask AI?” Whether it’s analyzing market trends, choosing investments, or even picking a restaurant, AI seems to have become our “second brain” in daily life.

This shift is quite natural. AI does provide tremendous convenience and is often faster and more accurate than the human brain. But have we considered—if our decision-making habit becomes “wait for AI to give an answer,” how much independent thinking do we have left?

The European Union’s recently introduced AI Act and General-Purpose AI Code of Practice are direct responses to this concern. Why are governments stepping in to regulate? Does the convenience of AI mean we should trust it unconditionally? Or are we already becoming overly dependent on AI without realizing it?


AI Is Quietly Taking Over Our Decision-Making

Today’s AI is no longer just a tool—it’s becoming a key player in our decision-making process.

Businesses and Governments: Is AI More Trustworthy Than Humans?

Just a few years ago, when executives gathered to discuss strategies, decisions were still based on experience, data analysis, and human intuition. Now, many businesses begin by saying, “Let’s have AI analyze it first.”

It’s not just the corporate world. Governments are also increasingly relying on AI to draft policies, forecast the economy, and even monitor social order. Most bank loan approvals are now based on AI-generated risk assessments rather than reviewed by a human manager. In the future, AI could play a huge role in how we allocate pensions and adjust medical resources.

In this transformation, AI is gradually shifting from “assistant” to “decision-maker.” As humans become more trusting of AI—and stop questioning its conclusions—are we still truly in control?

Academia and Daily Life: Are We Becoming Too Lazy to Think?

For students, writing a paper no longer starts with library research, but with opening an AI tool that drafts outlines—or even writes content. Office workers writing reports often begin with: “Does AI already have an analysis on this?”

Planning trips, shopping, even dating—AI helps us calculate the “best choice.” At first, we saw these tools as smart time-savers. But once we get used to offloading our thinking, will we still know how to make decisions if AI stops working one day?


Is AI Making Us Smarter or Easier to Manipulate?

As AI becomes our primary decision-making tool, several serious concerns may arise:

1. AI Is Not Infallible—Yet It’s Deciding Everything

AI’s intelligence depends on data, but that data may be incomplete or flawed. In 2021, the U.S. stock market experienced unusual fluctuations due to errors in AI trading models. When AI faces unfamiliar situations, it may not respond correctly.

If businesses, governments, and individuals all rely entirely on AI to make decisions, who will notice when it makes a mistake?

2. AI May Reinforce Social Bias—And We Don’t Even Notice

AI is not “objective.” Its decisions are based on past data, which may already be biased. For example, recruitment AIs have been found to systematically discriminate against female applicants because their training data was dominated by male candidates.

Since AI decisions are often viewed as “scientific” and “data-driven,” people rarely question whether bias exists—making social inequalities harder to spot.

3. Human Critical Thinking Is Gradually Being Taken Over

The most worrying trend is our possible loss of the ability to think and question.

In the past, we would compare multiple media sources when reading the news. Now, many people just read what AI recommends. We used to personally weigh the pros and cons of an investment. Now, many simply trust AI’s forecast.

If we keep letting AI make decisions for us, will we still know how to choose for ourselves when AI stops?


Why the EU Is Introducing AI Regulations

To counter these risks, the EU has launched the AI Act and the General-Purpose AI Code of Practice to guide AI development in a direction that aligns with human values.

1. Transparency: We Must Know How AI “Thinks”

AI companies must disclose the data sources used to train AI so the public can understand the basis of its decisions—instead of treating it like a black box.

2. Risk Management: AI Must Be Regulated to Prevent Harm

Companies need to assess AI risks, especially in high-stakes areas like finance, healthcare, and justice. A flawed algorithm should not determine someone’s future.

3. Copyright Protection: AI Must Not Freely Use Protected Content

Many AI systems are trained using massive amounts of online content. But unauthorized use of such data is not acceptable. EU regulations require AI developers to ensure data sources are legal to prevent intellectual property violations.

4. Stricter Oversight for High-Risk AI

If AI could impact public safety—such as in autonomous driving, medical diagnostics, or financial trading—then it must meet higher standards and undergo regulatory review.


AI Should Be a Tool—Not the Master of Our Minds

AI’s development is inevitable, and its convenience undeniable. But we must ask ourselves: Do we want AI to help us think, or think for us?

As AI grows more powerful, we must work even harder to preserve independent thought.

  1. Don’t blindly trust AI—learn to question its conclusions.
  2. Understand how AI works and know its limitations.
  3. In major decisions, retain human intuition and judgment.

Technology should empower humanity—not make us more dependent. As AI begins to decide everything, let’s remind ourselves: The real power to decide should always remain in our hands.

當 AI 幫我們決定一切,我們還會思考嗎?

最近,我留意到一個有趣的現象。身邊的朋友,無論是企業高層、創業家,還是學生、普通上班族,做決策時都開始不約而同地說:「不如問問 AI?」不論是市場趨勢、投資方向,甚至是餐廳推薦,AI 似乎成了我們生活的「第二大腦」。

這種轉變其實很自然,AI 確實提供了許多便利,也的確在很多時候比人腦更快、更精準。但我們有沒有想過,一旦我們的決策習慣變成「等 AI 給答案」,那麼人類的獨立思考能力還剩多少?

歐盟(EU)最近推出的 AI Act 和 General-Purpose AI Code of Practice(通用 AI 行為準則)正是針對這個問題而來。政府為什麼要出手監管?AI 的便利是否意味著我們應該毫無保留地信任它?或者,我們是否已經開始過度依賴 AI,而不自知?

AI 正在悄悄主導我們的決策

現在的 AI,已經不只是我們的工具,而是我們決策過程中的「重要角色」。

企業與政府:AI 比人類更值得信任?

回想幾年前,企業高層開會時,討論市場策略還是基於經驗、數據分析和人類直覺。但現在,許多企業做決策時,第一步是「讓 AI 分析一下」。

不只是商業,政府也開始仰賴 AI 來規劃政策、預測經濟走勢,甚至用來監察社會秩序。銀行貸款的審批,現在大多數已經是 AI 算出來的風險評估,而不是由經理親自審核。未來,我們的退休金如何分配、醫療資源如何調整,也許 AI 都會有很大的發言權。

這樣的變化,讓 AI 逐漸從「輔助人類」變成「決策者」。當人類越來越相信 AI,而不再質疑它的結論,我們真的還是這個世界的主導者嗎?

學術與生活:AI 讓我們變得「懶得思考」

學生寫論文的第一步,不再是去圖書館查資料,而是打開 AI 工具,請它整理大綱,甚至直接生成部分內容。上班族需要寫報告,也會先問 AI:「這個主題有沒有什麼現成的分析?」

旅行計畫、購物推薦、甚至戀愛配對,現在 AI 都可以幫我們計算「最佳選擇」。一開始,我們覺得這些工具很聰明,幫我們省下時間;但當我們習慣了讓 AI 代勞,會不會有一天,當 AI 停止運作時,我們竟然不知道該怎麼做決定?

AI 讓我們變得更聰明,還是更容易被操控?

當 AI 變成主要決策工具時,這個世界可能會出現一些令人擔憂的問題。

  1. AI 並非萬無一失,卻開始決定一切

AI 的分析能力來自於數據,但這些數據並不一定準確或完整。2021 年,美國股市曾因 AI 交易模型的錯誤判斷,引發市場異常波動。當 AI 遇到從未見過的新情況,它未必能夠做出正確的反應。

如果企業、政府,甚至是普通人,都完全依賴 AI 來做決策,那麼當 AI 犯錯時,還有誰能發現問題?

  1. AI 可能強化社會偏見,而我們卻不察覺

AI 並不是「客觀」的,它的判斷基於過去的數據,而這些數據本身可能已經帶有偏見。例如,過去曾有招聘 AI 被發現對女性求職者有系統性歧視,因為它的訓練數據主要來自男性候選人。

當 AI 的決策結果被視為「科學」、「數據驅動」,人們往往不會懷疑它是否帶有偏見,這讓許多社會不公問題變得更難被發現。

  1. 人類的獨立思考能力,正在被 AI 慢慢奪走

最讓人擔憂的問題是,我們可能正在失去質疑與思考的能力。

以前,我們看新聞時會比較不同媒體的觀點,現在很多人只看 AI 推薦的內容;以前,我們會親自分析一個投資機會的利弊,現在很多人直接相信 AI 的預測。

如果我們習慣了讓 AI 幫我們做決策,久而久之,當 AI 停止運作時,我們還會知道如何自己做選擇嗎?

歐盟 AI 監管法案:為何政府要出手?

面對這些風險,歐盟推出 AI Act 和 General-Purpose AI Code of Practice,希望透過法規來確保 AI 的發展方向符合社會價值。

  1. 透明度:我們應該知道 AI 是怎麼「想」的

AI 企業必須公開 AI 的訓練數據來源,讓公眾知道 AI 的決策是基於什麼資訊,而不是一個「黑箱」。

  1. 風險管理:AI 必須接受監管,確保它不會造成重大社會影響

企業需要評估 AI 的風險,尤其是在金融、醫療、司法等領域。AI 不能因為一個錯誤的演算法,而影響一個人的未來。

  1. 版權保護:AI 不能肆意使用版權內容

過去,許多 AI 都是透過大量網絡資料訓練而成,但未經授權的內容不應該被 AI 隨意使用。歐盟的法規要求 AI 企業確保數據來源合法,避免侵犯知識產權。

  1. 針對高風險 AI,必須有更嚴格的監管

如果 AI 可能影響社會安全,例如自動駕駛、醫療診斷、金融交易等,它的運作方式必須符合更高的標準,並接受監管機構的審查。

AI 是工具,而不是主宰我們思維的「大腦」

AI 的發展無可避免,它的便利性也無庸置疑。但我們應該問自己一個問題:我們希望 AI 成為幫助我們思考的工具,還是代替我們思考的主宰?

當 AI 變得越來越強大,我們更應該保持獨立思考的能力。

  1. 不盲目相信 AI,學會質疑它的結論。
  2. 了解 AI 的運作方式,知道它的限制在哪裡。
  3. 在重要決策中,保留人類的直覺與判斷力。

科技的進步,應該是讓人類變得更強,而不是讓我們變得更依賴。當 AI 開始決定一切,我們更要提醒自己,真正的決定權,應該掌握在我們手中。

Share this post

Subscribe to our newsletter

Keep up with the latest blog posts by staying updated. No spamming: we promise.
By clicking Sign Up you’re confirming that you agree with our Terms and Conditions.

Related posts

Events
開源與智慧財產權:AI創新的雙引擎 —— 華為論壇觀察

在人工智慧技術飛速發展的當下,算力基建、智慧財產權保護與開源共用正成為創新領域的焦點議題。近日,筆者以香港浸會大學專利顧問委員會成員的身份,見證於北京舉行的華為2025年創新和智慧財產權論壇,親身感受這場以“開放驅動創新”為主題的思想碰撞。論壇上,華為發佈了第六屆“十大發明”評選結果,涵蓋計算、作業系統、存儲等面向未來的關鍵技術領域。其中最引人注目者,莫過於名列首位的“Scale-up超大規模超節點算力平臺”——一套超級算力系統,被譽為人工智慧時代的新型基礎設施。本文將結合論壇見聞和筆者實務經驗,觀察該超級算力在AI時代的基建角色,探討“開源共用”與“智慧財產權保護”對創新的雙重意義,並反思香港在創新基建、產學研轉化、專利文化等方面的瓶頸與出路。 超級算力集群:AI時代的基建底座 這款被華為評為年度十大發明之首的Scale-up超大規模超節點算力平臺,實質上是由眾多AI處理器組成的單一邏輯超級電腦。隨著AI模型規模指數級增長,訓練這些模型所需的算力和資料輸送量呈爆炸式上升。傳統的伺服器堆疊模式面對超大型AI任務時,往往出現“ 集群越大、有效算力利用率反而越低,訓練中斷越頻繁”的窘境。華為針對此痛點創新出“超節點”系統架構,具備資源池化、線性擴展和高可靠性等特性:通過統一高速協定和共用記憶體編址,打通計算與存儲單元的高頻寬低時延互聯,使有效算力可隨節點規模近乎線性增長,同時大幅提升集群穩定性。華為輪值董事長徐直軍強調:“算力是——而且將繼續是——AI的關鍵”。基於對這一點的共識,華為推出了新一代Atlas系列超節點產品,其中Atlas 950 SuperPoD即對應此次的Scale-up超級算力。該平臺面向超大型AI訓練任務,從基礎器件、協定演算法到光電互聯均實現了系統級創新。例如,它採用正交架構設計實現零線纜的電氣互連,搭配全液冷散熱與浮動盲插技術確保不滲漏,同時首創UB-Mesh遞迴直連拓撲,支持單板內、板間、機架間NPU全互聯,以64卡為模組靈活擴展,最大可支援8192顆昇騰AI處理器無收斂互聯。換言之,上千顆AI晶片可彙聚成“一個大腦”協同運算,真正消除超大規模訓練的瓶頸。 從實踐看,超級算力已不僅是實驗室概念,而成為產業AI生態的基礎底座。華為透露,截至目前其上一代Atlas 900系列超節點系統已累計部署超過300套,服務於互聯網、金融、電信、電力、製造等行業的20多家客戶。在人工智慧時代,類似Atlas 950這樣的本地智算樞紐,相當於數字經濟的高速公路與電力網絡:為產業生態提供共用的算力資源,降低創新應用部署門檻,有力支撐從雲服務到垂直行業落地的AI解決方案。尤其對中國而言,在先進晶片供給受限的背景下,華為選擇利用現有制程自研超大規模計算平臺,以系統工程突破彌補晶片性能不足,體現出以基建思維佈局AI長遠發展的戰略定力。 “開放共用”與“智慧財產權”:雙軌驅動創新的辯證 本屆論壇傳遞出一個明確訊息:開源合作和智慧財產權保護並非對立,而是創新發展的雙引擎,需同步推進、制度協調。華為首席法務官宋柳平在會上表示:“開放創新是推動社會發展和技術進步的重要力量,也是華為的DNA。華為一直在踐行‘開放’的理念,用開放驅動創新。同時,華為注重自有智慧財產權的保護,也尊重他人的智慧財產權,包括專利、商標、版權和商業秘密等。”簡言之,一方面積極參與開源與共用,另一方面嚴格保障智慧財產權,兩條路並行不悖。華為近年來在專利研發和佈局上不遺餘力。2024年華為專利授權收入約6.3億美元,同時其歷年累計支付的專利許可費是自身許可收入的三倍之多。根據世界智慧財產權組織統計,華為2024年通過PCT公開的國際專利申請達6600件,自2014年以來連續位居全球首位。僅2024年一年,華為新公開專利就達3.7萬件,創下歷史新高。強大的專利庫讓華為在5G、Wi-Fi、視頻編碼等領域建立了廣泛的授權生態:截至2024年底,全球已有超過27億台5G設備、12億台消費電子設備和32億台多媒體設備獲得華為專利授權,全球500強企業中有48直接或間接獲得華為的授權許可。 另一方面,華為在開源開放方面同樣投入巨大資源。其副總裁、智慧財產權部部長樊志勇指出,華為透過“軟體開源、硬體開放、專利申請、標準貢獻與學術論文等多種形式”推動技術開放。2024年華為向標準組織新提交技術提案超1萬篇,發表學術論文逾1000篇;在開源社區方面,主導或參與了多個大型專案,例如OpenHarmony開源作業系統社區已有超過8100名共建者;openEuler開源OS發行版本累計裝機量已突破1000萬套;並將昇騰AI基礎軟體棧全面開源,包括CANN計算架構和MindSpore深度學習框架,並優先適配主流開源社區如PyTorch、vLLM等。 由此可見,“智慧財產權保護”保障了創新者的投入回報和商業動力,而“開源共用”則能彙聚眾智加速技術成熟與應用擴散。兩者並非水火不容,關鍵在於尋求制度性的平衡與協同。正如香港大學鄧希煒教授所言,一個強健、開放且受國際信賴的專利體系是創新引擎運轉不可或缺的條件。 全球範圍內,“開源”與“封閉”的博弈亦在演變。NVIDIA以CUDA軟體平臺構建封閉生態,形成極高的市場壁壘與利潤迴圈,但OpenAI從開源轉向封閉的過程亦引發反思。當Meta等公司以Llama開源模型崛起,開源生態再次展現強勁生命力。這些案例共同說明:唯有平衡專利保護與開源合作,才能讓科技創新在競爭與共榮中持續演進。 香港創新生態的瓶頸與建議

Read More