Skip to content

zh

關於我的職業生涯的故事

我開始我的職業生涯時在布里斯班擔任助理市場經理,但一年後我冒了很大的風險,回到香港,用我一年的積蓄創辦自己的初創公司。我看到一個機會,就是建立一個讓用戶能夠找到附近餐廳的網站。

我在大學時候學習Pascal和Java,因此能夠進行編程。然而,我對HTML、CSS和Javascript的知識有限,所以我必須學習這些技能,以便為我的初創公司建立網站。我學到了許多技術技能,比如使用Meteror.js並連接到mongo數據庫。這很困難,因為我每天都在寫程式碼,而且我自己一個人寫。我寫了一份商業提案,提交給政府申請資金。然而,經過一個月的工作,只有5個餐館老板登記到我們的網站,總收入僅幾百元。我們失敗了,因為我們無法吸引更多的客戶,而且我們的資金也很快就用完了。

如果我可以重新來過,我會學習關於精益創業的程序。我一開始並不知道什麼是MVP(最重要的產品)。我建立了許多很酷的功能,如即時地圖和附近餐館的地理定位。然而最終沒有人使用這些功能,因為它們並不是重要的特性。大部分的網站流量都是來自Google搜索,所以我應該在當時更專注於SEO而不是地理位置搜索。我會用敏捷的Scrum方法進行迭代,並獲得客戶的反饋,根據反饋來優先執行功能。

我學到了許多技術技能和商業知識。我能夠獨力使用JavaScript進行全棧開發,並且在我自己的業務失敗後,我能夠找到另一份軟體工程師的工作。

後來,因為我的初創公司失敗,我找到了一份全職工作,成為了澳洲企業諮詢公司Industrie IT的軟體工程師。我的第一個客戶是Riot Games,擁有《英雄聯盟》的遊戲公司,該公司由騰訊擁有。這個項目是重新設計遊戲商店,用來購買角色皮膚。我是唯一負責實作的前端開發者。我一直致力於寫一個功能,並在購買按鈕上添加CSS動畫。

我低估了這個功能的複雜性,我承諾在一週內完成這個功能。然而,這裡有一些風險,因為動畫設計和資產都是由設計師提供的。我們工作的時區不同,我在香港,設計師在拉丁美洲。我們的工作時間幾乎沒有重疊,設計師的進度也因為產品所有者無法決定哪種動畫更好而被推遲了。

在展示會結束的前一天,我終於收到了動畫檔案,但這個文件是用photoshop提供的,我沒有許可證可以開啟。這種動畫的格式與舊的瀏覽器不兼容,比如Safari 4的內置瀏覽器。它不支援最新的CSS語法,並且它不能正確地顯示

Introducing Amazon Web Services (AWS)

Hello everyone, my name is Victor Leung and I am an AWS community builder. In this article, I would like to introduce Amazon Web Service (AWS). You may be wondering, what is AWS? It is the world's most comprehensive and well-adopted cloud platform. Customers trust AWS to power their infrastructure and applications. Organisations of every type and size are using AWS to lower costs, become more agile and innovate faster.

AWS provides on-demand delivery of technology services via the internet with pay-as-you-go pricing. You can use these services to run any type of application without upfront costs or ongoing commitments. You only pay for what you use.

Moreover, AWS gives you more services and more features within those services than any other cloud provider. This makes it faster, easier and more cost-effective to move your existing application to the cloud and to build anything you can imagine.

You can rely on AWS's globally deployed infrastructure to scale your application to meet growing demand. There are so many regions in the world, how to choose? You can start with the region closest to you and your customer. A region is a physical location in the world that consists of multiple Availability Zones. Each availability zones consist of one or more discrete data centres, each with redundant power, networking, and connectivity, housed in separate facilities. In the future, if your company expands to other regions, you can take advantage of AWS facilities as well. The AWS Cloud spans 84 Availability Zones within 26 geographic regions around the world, with announced plans for 24 more Availability Zones and 8 more AWS Regions.

As for the computing power on the cloud platform, there are several types to choose from. You can use the EC2 virtual server service to deploy your server on the platform. And there are so many types of EC2, how to choose? In fact, it is decided according to your needs, the four aspects are the CPU, memory, storage and network performance. According to the type, age, capability and size, there are certain naming conventions, such as M5d.xlarge.

Generally speaking, for the instance selection process, you can start with the best-guess instance. Then determine the constrained resources. For example, C5 instances are optimised for compute-intensive workloads. It is suited for high-performance web servers. It has cost-effective high performance at a low price per compute the ratio. Besides, for M5 instances, they are general purpose instances. It has a balance of compute, memory, and network resources. It is a good choice for many applications.

Once you started an EC2 instance, you may change the instance type as well. You can resize for over-utilized (the instance type is too small) or under-utilized (the instance type is too large) cases. This only works for EBS-backed instances. The steps are 1. Stop instance 2. Instance Settings -> Change Type 3. Start Instance. You cannot change the instance type of a Spot Instance and you cannot change the instance type if hibernation is enabled.

There are a couple of available CloudWatch metrics for your EC2 instances:

  • CPUUtilization: the percentage of allocated EC2 compute units
  • DiskReadOps: completed read operations from all instance store volumes
  • DiskWriteOps: completed write operations to all instance store volumes
  • DiskReadBytes: bytes read from all instance store volumes
  • DiskWriteBytes: bytes written to all instance store volumes
  • MetadataNoToken: number of times the instance metadata service was successfully accessed using a method
  • NetworkIn: number of bytes received by the instance
  • NetworkOut: number of bytes sent out by the instance
  • NetworkPacketsIn: number of packets received by the instance
  • NetworkPacketsOut: number of packets sent out by the instance

Besides, you can install the CloudWatch agent to collect memory metrics and log files.

When purchasing EC2, there are many options. You can start with an on-demand instance first, billed by the second, with no long-term contract. After you try it out in the future, you can choose a more cost-effective reserved instance and pay for a long-term lease of one to three years, which will save you money in the long run.

After choosing the purchase method, you can put the EC2 virtual machine into the auto-scaling group. When the demand increases, the number of EC2s can be increased at the same time, thereby increasing the computing power. When the peak period is over, such as when there is no traffic in the early morning, the number of EC2s can be automatically reduced. This automatic scaling function can be scaled independently according to different indicators, and this function is free to use.

For EC2 Load Balancing, by default, the round robin routing algorithm is used to route requests at the target group level. It is a good choice when the requests and targets are similar, or if you need to distribute requests equally among targets. You can specify the least outstanding requests routing algorithm, with consideration for capacity or utilization, to prevent over-utilization or under-utilization of targets in target groups when requests had varied processing times or targets were frequently added or removed. If you enable sticky sessions, the routing algorithm of the target group is overridden after the initial target selection.

Elastic Load Balancer (ELB) can be used to automatically assigned to one or more availability zones, and at the same time, it can check the health status of the backend servers, and increase or decrease resources horizontally according to traffic requirements. There are also several different options for load balancers. For Application Loan Balancer (ALB), which is configured according to the OSI layer 7, which is HTTP. Other load balancer can also be distributed through the fourth layer of the network OSI, using the protocols of TCP and UDP, as well as the distributor of the gateway.

Suppose your business is unlucky to encounter a large-scale accident, such as a natural disaster, an earthquake, damage to a data centre, a technical impediment, or a human error, such as an employee running a command rm -rf deletes all the data, so what should you do? Actually, there are different methods, and there are also different restoration times and origins.

As for the different methods, different costs would be charged. The higher the cost, the faster the recovery. If your business can tolerate a few hours of service interruption, a normal backup and restore scenario is fine. But if it doesn't work, and it takes a few minutes to restore service, then it's a matter of replicating an identical environment in a different region, and in a standby state.

Let me give you an example, such as deploying a website to an environment in Singapore, and deploying a backup environment in Hong Kong at the same time. Through the Route53 domain name system, the domain name is pointed to the Singapore region. When a problem occurs in the Singapore area and the entire area cannot be used, the domain name can be transferred to the Hong Kong area immediately, and normal services can be resumed. The process can be changed manually or automatically, or even distributed proportionally or on a user-by-user basis.

However, operating in two regions is relatively expensive. For generally small-scale problems, such as component failures, network issues, or sudden increases in traffic, deploying to two or more Availability Zones is fine. When a zone is unavailable, it is immediately moved to another available zone, and data can be independently replicated.

Regarding to database, you can choose RDS, which is compatible with MySQL database and can be resized. RDS is a hosted service that handles patching, backup and restore functions for you. In the future, you can also consider using Aurora. The throughput can reach about three times, but the price is also more expensive, depending on whether you want to achieve the performance of a business database.

RDS allows multi-AZ deployments, which provides enterprise-grade high availability, fault tolerance across multiple data centres with automatic failover, and synchronous replication and enabled with one click. When failing over, Amazon RDS simply flips the canonical name record (CNAME) for your DB instance to point at the standby, which is in turn promoted to become the new primary.

The RDS read replicas provide read scaling and disaster recovery. It relieve pressure on your master node with additional read capacity. It bring data close to your application in different regions You can promote a read replica to a master for faster recovery in the event of disaster.

If you need strict read-after-write consistency (what you read is what you just wrote) then you should read from the main DB Instance. Otherwise, you should spread out the load and read from one of the read replicas. The read replicas track all of the changes made to the source DB Instance. This is an asynchronous operation. Read Replicas can sometimes be out of date with respect to the source. This phenomenon is called replication lag. Replica Lag metric in Amazon CloudWatch to allow you to see how far it has fallen behind the source DB Instance.

Amazon RDS encrypted DB instances use the industry standard AES-256 encryption algorithm to encrypt your data on the server that hosts your Amazon RDS DB instances. To protect data in transit, all AWS service endpoints support TLS to create a secure HTTPS connection to make API requests. Manage secrets, API keys, and credentials with AWS Key Management Service (AWS KMS). As the team expands, with AWS Identity and Access Management (IAM), you can specify who or what can access services and resources in AWS, centrally manage fine-grained permissions, and analyze access to refine permissions across AWS. Multi-factor authentication (MFA) in AWS is a simple best practice that adds an extra layer of protection on top of your user name and password. Firewalls (web application, network) and DDoS protection. Thread detection, manage secret alerts, and configure security controls for individual AWS services using AWS Security, Identity & Compliance.

Amazon CloudFront is a content delivery network (CDN) service built for high performance, security, and developer convenience. It speeds up the distribution of your web content to your users, through a worldwide network of data centres called edge locations. The user request is routed to the edge location that provides the lowest latency (time delay), so that content is delivered with the best possible performance. For example, the first client sends a request in the United States, and then needs to cross half the world to Singapore to get the content, but for the second request, it is good to get the previous cache file in the data centre near the United States, which greatly reduces the distance and feedback time.

For dynamic content acceleration, you can use standard cache control headers you set on your files to identify static and dynamic content. Dynamic content is not cacheable, it proxied by CDN to the origin and back. Faster response time = Reduced DNS Time (Route 53) + Reduced Connection Time (Keep-Alive Connections & SSL Termination)+ Reduced First Byte Time (Keep-Alive Connections)+ Reduced Content Download Time (TCP/IP Optimization). It can further optimise using Latency-based Routing (LBR), run multiple stacks of the application in different Amazon EC2 regions around the world, create LBR records for each location and tag the location with geo information. Route 53 will route end users to the endpoint that provides the lowest latency.

AWS CodePipeline is a fully managed continuous delivery service that helps you automate your release pipelines for fast and reliable applications. It can use to prevent issues by running tests and performing ng quality check. Amazon CloudWatch is a monitoring and observability service. It provides you with data and actionable insights to monitor your applications, respond to system-wide performance changes, and optimize resource utilization. Upon detection of abnormal patterns or healthh check returns error, you can trigger an alarm or actions, which could further trigger AWS Lambda, it is serverless, event-driven compute service that lets you mitigate the issue, such as restart the server or revert to the previous stable version. You can then recover from failed service instances.

For storage of objects, there are 6 choices of Amazon Simple Storage Services (Amazon S3) storage classes: S3 standard, S3 standard-IA, S3 One Zone-IA, S3 intelligent-tiering, S3 Glacier, S3 Glacier Deep Archive. The Amazon S3 Glacier storage classes are purpose-built for data archiving, providing you with the highest performance, most retrieval flexibility, and the lowest cost archive storage in the cloud.

For S3 Data Consistency, the New Objects (PUTS) has Read After Write Consistency. When you upload a new S3 object you are able to read it immediately after writing. Overwrite (PUTS) or Delete Objects got Eventual Consistency. When you overwrite or delete an object, it takes time for S3 to replicate versions to AZs. If you read it immediately, S3 may return you an old copy. You need to generally wait a few seconds before reading.

Another storage option is EBS. What is Amazon Elastic Block Storage (EBS)? Block storage volumes as a service attached to Amazon EC2 instances. It is flexible storage and performance for dynamic workloads such as stateful containers. It can be created, attached, and manage volumes through API, SDK, or AWS console. It has point-in-time snapshots and tools to automate backup and retention via policies.

gp3, General Purpose SSD are great for boot volumes, low-latency applications, and bursty databases.

  • IOPS: 3,000 - 16,000 IOPS
  • Throughput: 128 - 1,000 MiB/s
  • Latency: Single-digit ms
  • Capacity: 1 GiB to 16 TiB
  • I/O Size: Up to 256 KiB (logical merge)

io2, Block Express are ideal for critical applications and databases with sustained IOPS. It’s next-generation architecture provides 4x throughput and 4x IOPS.

  • Up to 4,000 MiB/s
  • Up to 256,000 IOPS
  • 1,000:1 IOPS to GB
  • 4x volume size up to 64 TB per volume
  • < 1-millisecond latency

st1, Throughput optimized are ideal for large-block, high-throughput sequential workloads.

  • Baseline: 40 MiB/s per TiB, up to 500 MiB/s
  • Burst: 250 MiB/s per TiB, up to 500 MiB/s
  • Capacity: 125 GiB to 16 TiB
  • I/O Size: Up to 1 MiB (logical merge)

sc1, Cold HDD are ideal for sequential throughput workloads, such as logging and backup.

  • Baseline: 12 MiB/s per TiB, up to 192 MiB/s
  • Burst: 80 MiB/s per TiB, up to 250 MiB/s
  • Capacity: 125 GiB to 16 TiB
  • I/O Size: Up to 1 MiB (logical merge)

For EBS availability, EBS volume data is replicated across multiple servers in an Availability Zone to prevent the loss of data from the failure of any single component. Protect against failures with 99.999% availability, including replication within Availablity Zone (AZs), and 99.999% durability with io2 Block Express volumes. EBS Snapshots are stored in S3, which stores data across three availability zones within a single region.

Besides, there is Amazon Elastic File System (Amazon EFS). It is serverless shared storage - no provisioning, scale capacity, connections and IOPS. It is elastic - pay only for the capacity used. Performance build-in scales with capacity. It has high durability and availability - designed for 11 9s of durability and 99.99% availability SLA.

AWS CloudFormation is a service that helps you model and set up your AWS resources so that you can spend less time managing those resources and more time focusing on your applications that run in AWS. Infrastructure as code (IaC). Consistent across accounts and regions. Dev/test environments on demand. An Amazon Machine Image (AMI) is a supported and maintained image provided by AWS that provides the information required to launch an instance.

Finally, to sum up, there are many AWS services to archive well architecture with operational excellence, security, performance efficiency, reliability and cost optimisation. There is so much to learn and let’s keep learning. Thank you very much for taking the time to read this article. Let me know if you got any questions, happy to connect

了解 Kubernetes

我一直在學習 Kubernetes,也被稱為 K8s,這是一個用於自動化部署,擴展和管理容器化應用程序的開源系統。以下是理解的重要概念摘要:

控制平面 - 這個組件對集群做出全局決策,包括以下元素:

  1. ETCD:一個強一致性,分佈式鍵值存儲,提供了一種由分佈式系統或機器群組訪問數據的可靠方法。
  2. API 服務器:通過 REST,UI 或 CLI(kubectl)促進用戶互動。
  3. 調度器:處理資源管理,將工作節點分配給工作節點,同時遵守資源限制和約束。

數據平面 - 管理資源,網絡和存儲,以便可以運行容器工作負載。

命名空間 - 在 Kubernetes 物件範圍訪問和劃分集群提供邏輯分離。每個資源範疇都是命名空間或集群範圍的。

節點 - 這可以是虛擬機或實體機。多台機器或 VM 構成集群的主體計算資源。節點由控制平面管理,並託管 Pod 物件。他們的網絡由服務物件配置。默認組件包括:

  1. Kubelet:控制平面代理。
  2. 容器運行時:負責調度 Pod 容器。
  3. Kube Proxy:在集群內擔任網絡代理。

Pod - Kubernetes 中最基本的可部署物件,類似於服務或微服務。他們運行一個或多個具有共享存儲和網絡資源的容器。一個 Pod 中的容器類型包括:

  1. init-container:主要容器運行之前運行,通常用於執行設置任務。
  2. 主容器:托管在容器中運行的應用程序進程。
  3. sidecar:與主容器一起運行,與之鬆散耦合。

Pod 很少直接創建,通常通過控制器資源,如部署,DaemonSets,工作或 StatefulSets 創建。

ReplicaSet - 在任何給定的時間維持一組穩定的副本 Pod 運行。它通常不會單獨部署,而是由部署物件管理。

ConfigMap - 用於存儲非機密鍵值配置。Pod 可以將其用作文件掛載或者環境變量,由 Pod 中的容器訪問。

基於角色的訪問控制 (RBAC) 資源

  1. 服務賬戶:為 Pod 中運行的所有進程提供身份證明。
  2. 集群角色/角色:包含代表一組權限的規則。這些必須通過 ClusterRoleBinding 或 RoleBinding 與服務賬戶關聯以生效。
  3. ClusterRoleBinding / RoleBinding:授予在 ClusterRole / Role 中定義的權限給指定的 ServiceAccount。

部署 - 作為 Pod 和與他們相關的任何物件(如 ReplicaSets 和 ConfigMaps)的控制器。它不斷地調解在清單中聲明的狀態,並管理捲出到 ReplicaSets。可以配置為執行 Canary 部署,這帶有垃圾回收功能。

HorizontalPodAutoscaler - 根據內存和 CPU 使用情況等指標自動調整工作負載資源,如部署或 StatefulSets。它還可以使用像 Prometheus 這樣的自定義或外部指標進行縮放。

StorageClass - 描述具有存儲類型,提供商和回收政策等屬性的抽象存儲類。由 PersistentVolume 使用。

持久性存儲磁卷索賠 - 對特定資源和權限級別的存儲的用戶請求。

PersistentVolume - 代表一塊可以附加到 Pod 的存儲,並有一個獨立於 Pod 的生命週期。

服務 - 作為在一組 Pod 上運行的應用程序的網絡暴露的抽像。它提供負載均衡並使得一個集群內的 Pod 可以訪問其他 Pod。

StatefulSet - 用於管理含有狀態的應用程式的控制器。它為其每個 Pod 保持粘性身份,與部署資源不同,並將每個 Pod 與一個獨特的持久存儲實例相關聯。刪除或縮小 StatefulSet 不會刪除關聯的磁卷。

工作 - 適用於運行結束在成功完成的任務的應用程序。它部署一個或多個 Pod,並重試,直到指定數量的 Pod 已經終止,表示任務的結束。

CronJob - 類似於 Kubernetes 工作,但是按照設置的計劃運行。

Ingress - 通過服務將集群的外部流量引導到 Pod。它需要一個 Ingress 控制器(比如 ingress-nginx)來實現 Ingress 規則,並可以包括像外部負載均衡,SSL 終止和在集群內的基於名稱的虛擬託管等功能。

CustomResourceDefinition - 通過定義自定義資源屬性和模式來擴展 Kubernetes 資源類型。

CustomResource - 自定義資源的實例。CustomResources 可以被自定義控制器或運營商訂閱,並且必須有一個相關的 CustomResourceDefinition。

這些是我在學習 Kubernetes 的筆記。如果你正在準備 CKAD,CKA,或 CKS 考試,隨時與我提出任何問題。開心學習!

理解服務網格和 Istio

作為一名軟體開發人員,我有時會覺得基礎設施網路相當混淆。在這篇文章中,我將更深入地理解服務網格和 Istio。服務網格是一個專門負責處理服務與服務通信的基礎設施層。它確保請求通過組成現代雲原生應用程序的複雜服務拓撲的可靠傳遞。

實踐中,服務網格通常以輕量級網路代理的陣列形式實現,並與應用程序代碼一起部署,而無需應用程序知道它們。與其名稱相反,服務網格並非實際上的服務網格,而是抽象出網路層的代理網格。服務網格主要執行三個功能:流量控制,安全性和可觀察性。

控制平面將配置數據的流動從中央單位管理到組成網格的代理。而資料平面則管理由 sidecar 代理輔助的網格中微服務的應用數據流動。

一個常用的服務網格就是 Istio。Istio 是由 Google、IBM 和 Lyft(Envoy 代理)合作開發的開源項目,提供一個為在 Kubernetes 上管理服務間通信的透明基礎設施層。它攔截網路流量並將其代理到掛載為 main 容器的側車的智能 Layer 7 代理。 Istio 應用高級路由和策略規則,增強安全性和彈性,並在對等體間通信時使用互相認證的 TLS。

Istio 在服務網格的核心功能上提供了即時優勢:流量控制,安全性和可觀察性。然而,它確實引入了一些複雜性,例如運營開銷和鏈路級別的輕微延遲。它還需要平台適應性並消耗額外的資源,如內存和 CPU。

Istio 的控制平面,稱為 istiod,執行多種功能:服務發現,代理配置,證書管理等等。在 Istio 的舊版本中,這些功能被劃分為獨立的部署,但現已統一在 istiod 中。

Istio 的資料平面由與 Istio 控制平面通信的 Envoy 代理實例組成。一旦配置和同步,這些代理就能管理所有進出網格的網路流量,並應用高級 Layer 7 的路由和策略規則。其配置是通過控制平面的基於規則的 API 實現的,然後再編譯成 Envoy 專用的設定。

為使應用程序開發人員完全不知道 Istio 的存在,Istio 通過操縱 IP 表操縱全網格中所有 pod 的流量的傳輸到 Envoy。流量劫持通過 init 容器 (istio-init) 或 Istio 的 Container Networking Interface (CNI) 插件來實現。

Istio 的流量控制功能可以劃分為三類:請求路由、韌性和偵錯。它提供了一個基於規則的 API,允許用戶配置網格內的流量管理。應用于主機服務的流量策略基於各種匹配條件,例如負載均衡策略、連接池設置以及異常檢測。

Istio 還提供了一種 Security API,以在各種細粒度級別配置策略。它支援三種模式的 TLS 通訊:DISABLE,PERMISSIVE和 STRICT。通過查看 Istio 請求指標,可以瞭解是否通過 mTLS 代理進行請求。

總結,這篇文章是對服務網格和 Istio 的簡短深入瞭解。還有更多需要探索的。感謝您閱讀此篇文章,讓我們繼續學習!

我的職業生涯故事

我對科技的興趣始於大學時期,當時我選修了Java編程的選修課。我愛上了這門課程,並知道我想把它變成我的職業生涯。在獲得化學學士學位後,我在旅遊業擔任行銷經理。在那裡,我遇到許多具有商業頭腦但技術技能不足的行銷人員,尤其是在SEO和網站建設方面。這激勵我轉行,成為一家澳洲顧問公司的軟體工程師,在這裡我獲得了高級前端開發技能。在工作以外,我進行了兼職的電腦科學學位,這證明是非常有價值的。

在Accenture擔任軟體顧問角色時,一個重大的挑戰是遵守緊湊的時間線。我管理了一個針對航空公司的大型客戶移動應用程式。鑑於眾多的功能需求,我採用了敏捷的方法來持續提供價值。偶爾,我必須與產品所有者協商以克服專案的阻礙。最終,我們成功地推出了移動應用程式,滿足了業務要求並贏得了客戶的滿意度。這次經驗教會了我,僅靠科技並不能解決所有的商業問題。因此,我報名參加了兼職MBA課程,以更好地了解商業與科技的交叉點。

在EY為銀行業界提供咨詢服務時,我們遇到了一個挑戰,那就是雲平台的選擇。我們最初使用Amazon Web Services(AWS)開發了一個銀行錢包產品,認為它符合所有的要求。然而,在即將上線前,我們意識到香港的AWS數據中心有所延遲。由於監管要求,我們必須遷移到Microsoft Azure。我提供並執行了新的技術架構,以確保符合規定。

在Dynatrace,我是售後團隊的一員,專注於軟體監視產品。一個令人難忘的專案涉及到想要將我們的產品整合到他們的雲平台的新客戶華為。在深圳駐點工作時,我面對了要求苛刻的工作文化和每週六天的9 am至9 pm的工作時間。儘管如此,這個專案還是成功地推出了,這部分要歸功於我對客戶問題的主動回應。

作為HSBC的技術領導,我監督了一個針對馬來西亞商戶的在線支付解決方案的開發。我注意到團隊的人分裂,有的人專注於後端,有的人專注於前端,卻沒有人關注整體的用戶體驗。加劇此問題的是辦公室政治,這阻礙了我們的進程。要克服這些挑戰,我與客戶接觸,了解他們的需求,並查詢Splunk日誌以獲取錯誤數據。我對結果負責,有效地分配了任務,從而使交易成功率從40%提升到70%。

現在,作為Thought Machine的客戶工程經理,我最近協助一位需要向台灣最大的銀行之一發表演說的業務預售同事。只有一星期的準備時間,我的同事不擅長講國語,我翻譯並演示了投影片。這是一個具有挑戰性的任務,但演講被很好地接受了。

在我現在的角色中,我還主持新的團隊成員、客戶和越南合作夥伴的培訓課程。雖然英語是我們的第二語言,但我確保說話清晰,並使用各種短語來表達我的觀點。

在工作之外,我對持續學習有著熱忱。我在各種雲平台上都取得了認證,並且擁有Scrum項目管理的認證。我也喜歡通過Toastmasters clubs來提高我的溝通能力和公共演講技巧。

總的來說,我熱衷於探索新技術,並在商業與科技的交叉點找到解決方案。我喜歡與客戶、合作夥伴和團隊合作,根據客戶需求創建強大的架構和演示。歡迎隨時與我聯繫:https://www.linkedin.com/in/victorleungtw

關於數位轉型

在過去的5年裡,我在多個數位轉型項目中擔任領導角色。

2017年,我在埃森哲擔任高級顧問,幫助國泰航空將其手機應用程序從傳統平台轉換為新的本地移動技術。我領導了迭代過程,並積極與遠程團隊成員溝通優先事項。我獲得了在Node.js和Java Spring Boot服務器上編碼的實戰經驗,同時解決客戶在組織結構和技術交叉點上的商業挑戰。

2018年,我在安永擔任顧問,領導滙豐銀行的Payme業務移動應用項目。電子商務的興起和支付寶對新產品的積極擴展對傳統銀行構成威脅。如果這些銀行未能適應新興的二維碼支付趨勢,可能會變得過時。我的角色是幫助銀行成功地進行這項轉變。我展示了技術架構和敏捷交付方法論,在Android上使用Kotlin進行編碼的實戰經驗,並就由於合規原因從AWS遷移到Azure的問題提供建議。

2019年,我作為技術負責人領導了滙豐銀行的商家在線支付項目。大流行病加速了向電子商務銷售的轉變,現有的傳統平台無法跟上,導致許多交易失敗。我負責建立一個使用更穩健技術堆棧的新網站,以取代舊平台。我帶領團隊從啟動到上市提供解決方案,使用TypeScript on Adobe Experience Manager (AEM)的Angular,並在工程師,設計師和利益相關者團隊之間建立了良好的關係。

2021年,我參與了在新加坡新獲許可的數位銀行的工作。與受傳統系統限制的傳統銀行不同,這家數位銀行有利用雲原生技術的競爭優勢。傳統銀行可能擁有更多的客戶,財務資源和市場數據,但新銀行有進行創新的機敏性,使得運營更高效,成本更低。

2022年,我目前參與越南數字銀行項目。作為客戶服務團隊的關鍵技術成員,我幫助在平台上建立金融產品。我的任務包括在銀行存款和貸款產品上工作,並實現Python智能合約代碼。我分析並將業務要求轉化為技術規範,確保及時和成功的交付,同時與客戶,合作夥伴和其他團隊合作。

在過去5年的數位轉型項目中,最重要的一部分是改變思維模式並引入新的工作方式。我在軟體開發,應用架構設計,和企業用戶雲解決方案部署方面有十年的經驗。擁有計算機科學和金融商學碩士(MBA)學位的我,具有獨特的技術和商業智識結合。我擁有Amazon Web Services (AWS),Google Cloud Platform (GCP),Microsoft Azure,Kubernetes和Scrum的認證,並有從頭開始建立銀行產品的經驗。

我的職業目標是領導數位轉型,這需要創新戰略來應對複雜的挑戰。在沒有足夠信息的情況下啟動大規模項目可能會導致組織各級的抵制。我希望通過更小的成功項目早期贏得支持者,並展示明確的財務影響來克服這些常見障礙。

我的優勢在於我學習並快速應用知識的能力。在多變的商業環境中,迅速適應並以低成本測試假設至關重要。我的測試和學習的心態是持續改進的源泉,使我能夠提供有價值的反饋,幫助團隊成功。

然而,我的弱點可能是我過於關注技術。數字轉型不僅僅關於技術變革;它是關於更有效地滿足客戶需求。作為一個工程經理,我明白單憑技術無法改變一個行業,除非有一種商業模式將其與新興市場連接起來。

創新需要多種多樣的技能。包括商業和技術人員的團隊,與領域專家共同工作,可以確保項目解決組織的優先問題,而不是孤立的部門問題。當我作為軟體開發人員將最終用戶納入應用程序的設計中時,成功採用的可能性大大增加。

思考與致富 - 書評

我要評論的書是由拿破崙·希爾所著的"思考與致富"。在公眾場合讀這本書可能會有點尷尬,不是因為它寫得不好,而是因為它的書名可能顯得刻板。人們常常以貌取人,我擔心他們可能根據我正在閱讀的內容來評價我。

我們先引用一段亨利·福特在書中說的話:"不論你認為自己能,或是你認為你不能,你都是對的。"這句話概括了這本書的精髓。起初,我對於閱讀這本書感到懷疑。這是個騙局?是庞次宗吗?還是試圖說服我投資比特幣和NFT的一種手法?儘管作者被指控欺詐和經營失敗,他仍宣稱揭示了“有史以來最大的秘密”。

然而,在做出評價前,了解書籍的歷史背景很重要。它是在1937年,大蕭條期間出版的。今天,我們發現自己處於類似的情況,股市下跌了20%。儘管如此,這本書仍是暢銷書,已經銷售了超過2000萬冊,並被歸類為自我提升類型的書籍。我讀過很多自我提升的書,如果他們像宣稱的那樣有效,我應該已經富有並在遊艇上過著享受生活的退休生活了。

這本書強調的是心態,明確的表達成一個簡單的公式:慾望,信念,然後行動。儘管他的書名明示你可以通過思考致富,但書中明確表示你必須付諸行動。如果你足夠渴望,對自己有信念,並且克服你的恐懼,你將被迫去行動。

書中有很多成功人士的激勵故事和案例研究,如美國的大工業家安德魯·卡內基。儘管書籍宣稱受到研究支持,但其方法似乎並未嚴格遵循科學準則。測試書中思想的最好方式是將之付諸行動。

別指望僅僅因為知道某件事就能得到報酬;你必須將那知識付諸行動。世界不會因為人們“知道”什麼而付給他們報酬;它會根據他們做了什麼或者他們的能力來激勵其他人去行動來付賬。一個技巧純熟的領導者可以顯著提高他人的效率,說服他們提供比他們自己會提供的更好的服務。

想要錢是一回事–每個人都想–但真正的價值在於你是否真的價值連城。很多人把他們的慾望和他們真正的價值混為一談。你的財務目標與你的實際價值無關,因為你的實際價值完全取決於你提供有價值的服務的能力或鼓勵他人這樣做的能力。

對於將人們以負面的個性推開的人來說,成功是無法實現的。力量是通過合作努力來實現的,而負面的個性不會促進這種合作。

擁有學位並不一定使人受過教育。一個受過教育的人學會了如何在不侵犯他人權利的情況下實現自己的目標。教育不在於積累知識,而在於如何有效且持之以恆地應用知識。

如果你對致富的想法痴迷,我首先建議你閱讀這本書。

越南街頭美食

今天,我將評論一下越南街頭美食。這篇文章中展示的所有照片都是我在旅行期間拍攝的。我將展示我在旅程中享用的道地越南街頭美食。

越戰時期的食物

在Củ Chi隧道中

越戰時期的食物

我和一位素食的同事旅行了兩個星期。由於她的飲食限制,我們所有的餐點都是素食。誠實地說,我覺得素食菜肴有點失望。這張照片描繪的是越戰時期的食物—乾燥、無味的馬鈴薯。當時的世貞現實是,人們餓得並無選擇。一位老人告訴我,他甚至為了生存而不得不吃狗。在這種情況下最重要的是不要進行評判。

摩托車當地街頭美食之旅

摩托車遊覽

只有在我的同事不在的週末,我才能盡情享用正宗的街頭美食。最地道的享用街頭美食的方法就是騎摩托車。在越南駕駛本身就是一種冒險;交通規則更像是建議。人們說,如果你能在越南騎摩托車,你就能在世界任何地方開車。謝天謝地,我並未受到任何傷害。

Bánh Tráng Nướng(越南披薩)

越南披薩

越南披薩是另一種受歡迎的菜肴。它是用米紙做的,吃起來輕盈易嚼。正宗的越南披薩是在開放的火焰上烹製的,而完全不顧安全規定。最終的結果簡直讓人愉快。

Bánh Xèo(越南餅乾)

越南餅乾

下面是越南的餅乾,這是在真火上的鍋子中烹製的。餅乾裡為滿是各種香料像是番薯葉, 讓這餅乾充滿香氣。

Bột Chiên(炸飯粉餅上加木瓜)

炸飯粉餅

雖然炒飯是我的最愛,但這道菜帶來了更多的享受。這基本上是炸飯粉餅,它很美味。

Nem Bò Nướng Sả(煙熏甜味和鹹味的豬肉串)

豬肉串

豬肉串也是很有人氣的。豬可能很聰明,但他們也非常美味。

Bánh Mì(越南法棍)

越南法棍麵包

法國在越南的殖民影響留下了美味的越南法棍,也被稱為Bánh Mì。

Bún Bò Huế(來自順化的牛肉麵湯)

CO AN, 001 BIS C/C NGUYEN THIEN THUAT, P.1 Q3, TPHCM

來自順化的牛肉麵湯

Bún Bò Huế是一種稍微有點辣的菜。Hue是這道菜發源城市的名字。對素食者深感抱歉,但它實在太好吃了。在越南,大部分人並不懂素食主義;他們甚至會在沙拉中加魚露。

Bún Cả (魚餅)

魚餅

Bún Cả是一種令人愉快的魚餅菜。當你加入魚露時,它變得更有風味。

更多

各種食物

還有更多美味的食物等著你去嘗試。

Chuối Nếp Nướng (香蕉糯米飯)

378 VO VAN TAN, P.5. QUAN 3, TP. HCM

香蕉糯米飯

甜點 我推薦香蕉糯米飯配椰子。 與泰國的芒果糯米飯相比,這更加美味。 小心發音,以免說錯關鍵字。

點心

雜式點心

各式各樣的果凍狀點心提供甜鹹味的完美平衡。

椰子冰淇淋

椰子冰淇淋

在這張照片中,你會看到兩份冰淇淋,儘管我自己一個人在吃。單身的好處是?你兩份都可以拿到。

椰子

椰子

這是一顆普通的椰子,如果你從未見過的話。

椰子咖啡

椰子咖啡

我目前最喜歡的飲料是椰子咖啡。 它像星巴克的冰奶茶,但味道更好。

以及更多的越南咖啡

越南咖啡

当然,越南以其咖啡而著名,尤其是用炼乳制成的。 它和看起来一样好。

有用的短語學習

Rượu (喝醉)

第一個字是 "rượu",意思是喝醉。不論你是高興還是難過,"rượu" 都是解決一切的答案。

Một, Hai, Ba, YO (1, 2, 3, 乾杯)

第二個短語是 "Một, Hai, Ba, YO",意思是 "1, 2, 3, 乾杯"。這短語簡單易記,所以拿上你的啤酒,跟我一起說: "Một, Hai, Ba, YO!"

產品策略建議

我最近完成了一個在線課程,學習了創建引人入勝且令人難忘的產品體驗所需的框架和概念。我選擇將這些知識應用到Thought Machine,一家開發了核心銀行產品的公司。這個產品正在革新銀行業,使得銀行能夠向他們的客戶提供創新的服務。

Thought Machine近年來增長迅速,最近在C輪融資中籌集了2億美元。該輪投資包括行業領先的風險投資公司和全球銀行,如Nyca Partners、Molten Ventures、JPMorgan、和 Standard Chartered。這使得該公司的總資金達到3.5億美元,估值超過10億英鎊。Thought Machine與幾家銀行合作,包括從一類金融機構到挑戰者的各種機構,包括Atom Bank、Curve、Lord銀行集團、Monese、SEB、Standard Chartered、TransferGo、Arvest、ING 和JP摩根追蹤。

該公司的旗艦產品是Vault,一個可以在各種雲服務上運行的原生雲賬本平台,包括亞馬遜網絡服務,Google Cloud平台和微軟Azure。憑藉智能合約,Vault提供了無與倫比的靈活性,使其可以運行各種零售銀行產品,如當前賬戶、儲蓄、貸款、信用卡和房屋貸款。

產品的層次

最好的產品不僅提供功能; 他們滿足了一種心理需求。以下是一種分解:

增值產品

  • 賬本內外的實時數據傳輸使AI和報告能夠具有豐富的數據流。
  • 銀行可以管理從國際貨幣到加密貨幣和獎勵積分的一切。
  • 一個支付處理平台,允許任何銀行在全球所有方法、計劃和地區中處理支付。

實際產品

  • 使用最先進的基礎設施在雲中的現代核心銀行平台。
  • 產品庫具有一個包含超過200種預先配置的金融產品的目錄,如當前和儲蓄帳戶,貸款,和房屋貸款。
  • 該平台採用了API優先的架構,使銀行可以輕鬆地連接到其他供應商的服務和技術。

核心產品

  • 減少了就地硬件的資本支出,顯著降低了銀行的碳足跡。
  • 使銀行能夠創新並向他們的客戶推出新的金融服務。
  • 使用Vault Core作為通用產品引擎,銀行可以運行他們想要的任何產品。

競爭格局

理解在各個層次上的競爭 — 狹窄,形式,需要,和替代 — 有助於定位產品。

狹窄

  • 與您的產品幾乎完全相同,既有核心功能也有實際功能。

  • Mambu

  • Temenos
  • Finastra

形式

  • 類似的實際產品在爭取錢包份額,但並非完美替代品。

  • 微軟動態365

  • 10x
  • FIS MBP

需要

  • 實際產品不同,但滿足用戶的相同核心需求。

  • 傳統系統,如IBM大型機

資源

  • 爭奪相同客戶資源(例如,金錢,時間,注意力)的產品。

  • Excel

  • Fiserv
  • Silverlake

利基評估

使用阿爾特教授對強大利基的四個標準來評估產品的利基。

尺寸

  • 全球零售核心銀行業務市場估值僅超過60億英鎊。

可識別

  • 如何識別有此需求的個體:

  • 新成立的銀行,擁有數字銀行許可。

  • 需要將傳統系統遷移到雲平台的銀行。

可訪問

  • 透過以下方式向這些個體進行市場推廣:

  • 在銀行業務中工作的管理顧問。

  • 在銀行生態系統內部運營的合作夥伴。

可預測的行為

  • 渴望競爭並區分其金融產品的銀行。

摩擦審查

識別所有客戶接觸點,找出摩擦區域,並建議Thought Machine如何紓解這些問題。

階段:購買前 客戶接觸點:風險評估 摩擦:銀行對風險規避,不願意改變。 解決方案:引入敏捷方法

階段:購買前 客戶接觸點:參加演示會議 摩擦:技術知識過時的銀行 解決方案:引入現代雲架構

階段:購買前 客戶接觸點:決策 摩擦:銀行決策者與競爭對手有密切的個人關係。 解決方案:與決策者建立關係

階段:購買 客戶接觸點:簽訂合同 摩擦:複雜的軟件許可文件 解決方案:簡化和標準化條款和條件

階段:購買 客戶接觸點:撰寫工作說明 摩擦:銀行可能缺乏完整的需求。 解決方案:提早參與並提供技術估算

階段:購買 客戶接觸點:團隊組成 摩擦:銀行中缺乏參與專案的人才 解決方案:引入系統整合合作夥伴

階段:購買後 客戶接觸點:產品安裝 摩擦:銀行在產品安裝上困苦 解決方案:提供專業支援

階段:購買後 客戶接觸點:產品文檔 摩擦:銀行開發者難以理解產品 解決方案:提供啟用培訓和自助學習門戶

階段:購買後 客戶接觸點:產品支持 摩擦:需要平台穩定性 解決方案:提供24/7產品支援並按危急程度分級處理

產品創新

在已服務客戶的陳述需求和未服務客戶的未陳述需求的交集處,存在著增量創新的甜蜜點。以下是一些目標客戶需求:

  • 即開即用的核心銀行業務服務
  • 靈活性強,配有易於使用的配置層
  • 既可以在私有雲平台上,也可以在公有雲平台上提供主機選擇
  • 可擴展的解決方案,能夠承受高需求和吞吐量
  • 更好地與其他銀行系統集成
  • 增強報告和數據分析
  • 保護個人識別信息(PII)的數據保護和隱私
  • 提高運營能力以減少生產事故

優先事項和建議

為了充分實現雲核心銀行技術的潛力,我們建議進行以下的行動:

  1. 專注於狹窄的利基市場,如遵循伊斯蘭教法的銀行產品,並利用平台靈活性。
  2. 作為增值產品,建立一個與其他銀行系統的開源集成庫。
  3. 進行摩擦審查,使產品更易於安裝,並提供無需安裝工作的SaaS解決方案。

對於此提案有任何問題,請隨時在LinkedIn上與我聯繫:https://linkedin.com/in/victorleungtw.

MongoDB Kafka 連接器

Apache Kafka 是一種開源的發布/訂閱消息系統。Kafka Connect,Apache Kafka的一個元件,面對將Apache Kafka與各種數據存儲連接的挑戰,包括 MongoDB。Kafka Connect 提供:

  • 傳輸數據到數據存儲的容錯運行時
  • Apache Kafka社區共享連接 Apache Kafka 到不同數據存儲解決方案的框架

在這篇文章中,我們將重點介紹如何將 MongoDB 作為數據湖。 MongoDB Kafka 接收連接器是從 Apache Kafka 讀取數據並將其寫入 MongoDB 的 Kafka Connect 連接器。官方的 MongoDB Kafka 連接器可以在這裏找到。

開始 Kafka 環境

這裡下載最新版的 Kafka。

curl https://dlcdn.apache.org/kafka/3.2.0/kafka_2.13-3.2.0.tgz -o kafka_2.13-3.2.0.tgz
tar -xzf kafka_2.13-3.2.0.tgz
cd kafka_2.13-3.2.0

按照正確的順序運行以下命令來開始所有的服務。首先開始 ZooKeeper 服務。

bin/zookeeper-server-start.sh config/zookeeper.properties

在另一個終端會話中,開始 Kafka 代理服務:

bin/kafka-server-start.sh config/server.properties

所有服務成功啟動後,您將會擁有一個運行中的 Kafka 基礎環境。

安裝插件

這裡下載 JAR 文件,並導航至 /libs 目錄。

curl -L https://search.maven.org/remotecontent?filepath=org/mongodb/kafka/mongo-kafka-connect/1.7.0/mongo-kafka-connect-1.7.0-all.jar -o plugin/mongo-kafka-connect-1.7.0-all.jar

編輯 config/connect-standalone.properties,並將 plugin.path 指向下載的 JAR 文件。

plugin.path=/home/ubuntu/kafka_2.13-3.2.0/libs/mongo-kafka-connect-1.7.0-all.jar

創建配置屬性

/config 文件夾中,創建一個名為 MongoSinkConnector.properties 的文件。

name=mongo-sink
topics=quickstart.sampleData
connector.class=com.mongodb.kafka.connect.MongoSinkConnector

消息類型

key.converter=org.apache.kafka.connect.json.JsonConverter
key.converter.schemas.enable=false
value.converter=org.apache.kafka.connect.json.JsonConverter
value.converter.schemas.enable=false

關於 MongoDB Sink 連接器的具體配置

connection.url=mongodb://localhost:27017
database=quickstart
collection=topicData
change.data.capture.handler=com.mongodb.kafka.connect.sink.cdc.mongodb.ChangeStreamHandler

/config 文件夾中,創建一個名為 MongoSourceConnector.properties 的文件。

name=mongo-source
connector.class=com.mongodb.kafka.connect.MongoSourceConnector

連接和源配置

connection.uri=mongodb://localhost:27017
database=quickstart
collection=sampleData

安裝 MongoDB

運行以下命令導入 MongoDB 的公開 GPG 鑰匙:

wget -qO - https://www.mongodb.org/static/pgp/server-5.0.asc | sudo apt-key add -

創建 MongoDB 源列表

echo "deb [ arch=amd64,arm64 ] https://repo.mongodb.org/apt/ubuntu focal/mongodb-org/5.0 multiverse" | sudo tee /etc/apt/sources.list.d/mongodb-org-5.0.list

更新本地軟件包數據庫

sudo apt-get update

安裝 MongoDB 套件

sudo apt-get install -y mongodb-org

如果遇到任何與未滿足的依賴項相關的錯誤,使用以下命令修復它們:

echo "deb http://security.ubuntu.com/ubuntu impish-security main" | sudo tee /etc/apt/sources.list.d/impish-security.list
sudo apt-get update
sudo apt-get install libssl1.1

驗證 MongoDB 狀態

檢查 MongoDB 是否已成功啟動:

sudo systemctl status mongod

如果它是非活動的並需要重新啟動,運行:

sudo systemctl restart mongod

開始 Kafka Connect

要開始 Kafka Connect,執行以下命令:

bin/connect-standalone.sh config/connect-standalone.properties config/MongoSourceConnector.properties config/MongoSinkConnector.properties

將數據寫入 Topic

運行控制台生產者客戶端以將幾個事件寫入您的 Topic。您輸入的每行將導致一個單獨的事件被寫入 Topic。

$ bin/kafka-console-producer.sh --topic connect-test --bootstrap-server localhost:9092
This is my first event
This is my second event

通過您的連接器發送文件內容

要將文檔的內容通過您的連接器發送,插入一個文檔到您的源連接器從中讀取數據的 MongoDB 集合。使用以下 MongoDB shell 命令:

use quickstart
db.sampleData.insertOne({"hello":"world"})

插入文檔後,通過檢查 topicData 集合來驗證您的連接器是否已將變更處理。

db.topicData.find()

您應該會看到以下類似的輸出:

[
  {
    "_id": ObjectId(...),
    "hello": "world",
    "travel": "MongoDB Kafka Connector"
  }
]

參考

欲了解更多訊息,請參觀 MongoDB Kafka 連接器文檔