在部份環境下因為建立計算欄位造成伺服器效能低弱 , 因此改用其他方法來解決效能問題
[SQL]利用 Index view 搭配提升效能
- 103
- 資料庫管理經驗分享
在部份環境下因為建立計算欄位造成伺服器效能低弱 , 因此改用其他方法來解決效能問題
在調查多國語系時發現了 Tolgee,它提供雲端和自架的方案,Self-hosted Pricing | Tolgee
Writing HTTPS API server code pair to provide AI model inference using python.
在使用 GitHub Copilot 的情境中,我們可以透過它來幫助我們做 Code Review,而前陣子的更新讓這個情境變的更加好用跟方便,後面就來介紹如何更方便的透過 GitHub Copilot 來做 Code Review。
在使用生成式 AI 來提供程式碼建議的時候會希望產出的程式碼建議會符合自己或是團隊的 Code Style,或是可以在協助做 Code Review 的時候可以幫忙檢查出不符合 Code Style 的程式碼,最近 GitHib Copilot 更新了一個實驗性的功能,可以讓我們方便設定自定義的提示詞,讓 AI 在回覆的時候更符合我們的需求,後面就來說明該如何設定。
小諸城位在長野縣小諸市的市區中,又名醉月城、穴城或是白鶴城
19世紀時,透過自然景觀的活用改造成了市營公園,並整理成為小諸城址懷古園
是個一年四季不論何時都可以前往旅遊的好地點
本篇是 Chrome Extension 的第七篇入門文章。
將兩篇文章的原始碼做了整理,然後放上 Github
續上篇,預設 Nexus 建立後,預設就支援 nuget,不用作太多的設定就可以上傳 nuget package
Sonatype Nexus Repository 是一款支援多種協定的 Artifacts Management 成品管理工具,
下圖出自:Sonatype Platform Integrations | Sonatype
Docker Image 現在已經應用程式產出的標準配備,想要利用 Nexus 建立 Private Docker Image Registry,當我要 Push Docker Image 時碰到了一些小亂流特此記錄下操作步驟。
使用 dotnet cli 來對 visual studio solution 檔案打包成 nuget package 的旅程
有時候會需要採用比較靈活的功能選單,希望能靠著資料繫結來完成,比較普遍的做法就是採用階層式資料繫結,讓我們一步步來完成這個需求。
在 .NET Core 定義了兩種快取,本機快取(IMemoryCache);分散式快取(IDistributedCache),用於將快取資料儲存於外部儲存裝置中(如 Redis、SQL Server 或其他分散式快取提供者),使用上沒有甚麼太特別的,單純的記錄下。
過去工作專案大多使用 RabbitMQ 來處理訊息佇列,RabbitMQ 的幾種模式(Direct, Topic, Fanout)都有使用,因為都可以解決大多數的應用情境,所以就沒有想要去使用 Kafak,畢竟多建立一套服務就需要再多花時間去維護。
一直以來也想要找個時間來玩玩 Kafka,於是就利用週末時間學習怎麼使用 Docker 架設服務,程式開發練習怎麼使用 Confluent.Kafka,這是一篇學習筆記。
公司的資料庫有很多功能用到了分表分庫,根據條件,決定要連哪一台資料庫,用哪一張資料表,概念上很簡單,花了一點時間研究,EF Core 的寫法。
在 Visual Studio 下建立資料庫專案是資料庫版控的一種好方式,但是一個資料庫專案只能針對一個資料庫做處理,如果遇到需要跨資料庫處理的時候該如何來做處理會比較方便 ?
我只是想要內嵌 Markdown 到 OpenAPI.yaml 裡,並且用 Redoc 產生出靜態檔案,就卡了一個下午,這沒有筆記一下接下來一定會忘記的,參考連結在這裡 Embed Markdown in Redocly API reference docs
前一篇「使用 Wolverine 實作生產者-消費者模式(Producer-Consumer Pattern)」介紹了將原本使用 Channels + BackgroundService 的生產者-消費者模式改用 Wolverine 來實作。
就以現實的問題來看,如果服務是相當頻繁地被使用時,如果 MessageCreatedEventHandler 消費者的處理速度有所延遲,那麼 Channels 裡就會堆積大量的 MessageCreatedEvent 事件,一旦服務出現問題而重新啟動或是有版本更新而需要重新部署,那麼佇列在 Channels 裡的事件就會消失不見了,這可是不得了的事情。所以這篇就來用 WolverineFx.RabbitMQ,生產者將事件發送到 RabbitMQ 裡,然後消費者再去接收存放在 RabbitMQ 裡的訊息,如此的改變就是為了避免因為服務重新啟動而讓佇列在 Channels 裡的事件消失不見。
之前寫了一篇「使用 Channels 與 BackgroundService 實作生產者-消費者模式(Producer-Consumer Pattern)」是使用 Channels 與 BackgroundService 來實作,而這一次就來改用 Wolverine 這個套件來試試看。
有關 Wolverine 這個套件我也看了好久,一直想拿來試試看,會想要用這個套件,主要是它是一個輕量化的工具,適合用於整合訊息佇列、事件驅動設計和後台任務處理。
而且也因為適合用於整合訊息佇列、事件驅動設計,所以支援了許多第三方服務,例如:RabbitMQ, Kafaka, MQTT, AzureServiceBux, AmazonSqs 等,所以打算之後也繼續玩玩 Wolverine。
前幾個禮拜 ChatGPT 推出了 Advanced Voice Mode,讓我們可以透過更自然的對話方式來跟 ChatGPT 詢問問題,而後續也推出了對應的 Readtime Api ,可以讓我們透過程式來建置出屬於自己的 Realtime 的應用程式,而在 Azure 上面當然也提供了這個模型,一樣來測試看看吧。
從 .NET Framework 開發 WebApi 服務時就開始使用 Swagger UI,直到現在都已經是直接在預設的 ASP.NET Core WebApi 專案範本裡就包含在內。
但是… 我一直都覺得 Swagger UI 做為 API 文件工具並不是很好閱讀,要查看輸入參數或輸出資料格式內容都不是那麼方便,我想大家或多或少應該都有這樣的感覺,所以我都還會在專案裡安裝 ReDoc 套件,ReDoc 做為 API 文件工具來檢視 API 的輸出入各種資訊都相當直觀且清楚,比 Swagger UI 更好閱讀,但是 ReDoc 只是個單純的 API 文件檢視工具,無法在 ReDoc 裡測試執行 API。
所以之前看到 Scalar 這個新的 API 文件檢視工具時就讓我眼睛一亮,有著如同 ReDoc 一般的 UI 外觀,可以方便且直覺地查看 API Endpoints 的資訊,而且還可以直接在上面測試執行 API,所以就趕緊來試試看。
在偵錯一些資料時,實體型別裡的資料有時是繼承而來
而物件裡的方法,也常常會使用到基底的方法或是參數
雖然這些資料的出發點是不希望開發者去在意的
若是可以拿到這些資料,在偵錯上有時反而可以幫上一些忙
過去的工作專案為了要加快 Request 的回應速度,所以就想方設法地去做了很多的調整…
例如一個訊息建立後要做很多的事情,像是要許多相關資料 Table 的資料異動、透過 RabbitMQ 去發送 message 通知其他 Client、快取資料的更新等等等
這麼多的處理如果都是在一個 Request 裡全部處理完成後才回傳 Response 結果,因為每個處理都會花費一些時間,全部累積起來就相當可觀,於是就會想到是不是要往平行處理或多執行緒的方式來解決,但是在繁忙的網站服務去使用這些解決方案又有很多風險,程式沒有寫好的話就會出現嚴重錯誤。
所以就想到用發送事件的方式,當訊息建立完成後,就發送一個事件到一個佇列裡,然後有一個 BackgroundService 去專門接收訊息建立完成事件,當收到事件後就開始一連串的處理,這麼一來 Action 方法的回應時間就能夠加快一些。
MassTransit 的架構是一個基於事件驅動和 Message 傳遞的分佈式系統架構,主要是要解偶服務之間的通訊。它使用 Message Broker(如 RabbitMQ、ActiveMQ、Kafaka、Azure Service Bus、Amazon SQS 等)來傳遞不同服務之間的訊息,它大大的簡化事件驅動的開發門檻
上一篇「背景常駐執行計時工作 - 使用 BackgroundService 與 PeriodicTimer」介紹了使用 BackgroundService 與 PeriodicTimer 實作計時的工作處理。
但如果有時候一些工作處理並不是每幾秒鐘或每幾分鐘、每幾個小時這樣的週期行為時,使用 PeriodicTimer 就無法滿足這樣的需求,而在使用 Hangfire 建立 Recurring Job 時都會使用到 Cron Expression 去定義工作的執行週期,而就有看到這麼一個 NuGet 套件就有提供這樣的功能,所以就拿來試試看。