· Joseph · AI & Machine Learning  · 3 min read

[Day 19] Google Cloud Text-to-Speech - 2

昨天玩完Cloud Text-to-Speech demo以後,大概知道他可以把文字轉成語音念給你聽。今天就來入門Cloud Text-to-Speech API吧。

前情提要:記得先Enable API,放置環境變數的教學可以看這系列第三天的文章 語言一樣使用Golang,然後跑在docker裡,之後也會放上github

這邊因為需要output一個檔案,但在docker裡面不好直接拿出來,所以在run的時候使用了-v mount,先來看一下檔案目錄: file structure

我這邊就會Mount testdata/text_to_speech到docker,指令如下

docker run -v ${PWD}/testdata:/app/testdata -it golang ./app Day19

好,現在來看看code吧:

package text_to_speech

import (
  "context"
  "fmt"
  "io/ioutil"
  "log"

  texttospeech "cloud.google.com/go/texttospeech/apiv1"
  texttospeechpb "google.golang.org/genproto/googleapis/cloud/texttospeech/v1"
)

func ConvertToSpeech(text string) {
  var root string = "./testdata/text_to_speech"
  // Instantiates a client.
  ctx := context.Background()

  client, err := texttospeech.NewClient(ctx)
  if err != nil {
    log.Fatal(err)
  }

  // Perform the text-to-speech request on the text input with the selected
  // voice parameters and audio file type.
  req := texttospeechpb.SynthesizeSpeechRequest{
    // Set the text input to be synthesized.
    Input: &texttospeechpb.SynthesisInput{
      InputSource: &texttospeechpb.SynthesisInput_Text{Text: text},
    },
    // Build the voice request, select the language code ("en-US") and the SSML
    // voice gender ("neutral").
    Voice: &texttospeechpb.VoiceSelectionParams{
      LanguageCode: "en-US",
      SsmlGender:   texttospeechpb.SsmlVoiceGender_NEUTRAL,
    },
    // Select the type of audio file you want returned.
    AudioConfig: &texttospeechpb.AudioConfig{
      AudioEncoding: texttospeechpb.AudioEncoding_MP3,
    },
  }

  resp, err := client.SynthesizeSpeech(ctx, &req)
  if err != nil {
    log.Fatal(err)
  }

  // The resp's AudioContent is binary.
  filename := "output.mp3"
  err = ioutil.WriteFile(root+"/"+filename, resp.AudioContent, 0644)
  if err != nil {
    log.Fatal(err)
  }
  fmt.Printf("Audio content written to file: %v\n", filename)
}

中間有一個AudioConfig這是可以注意一下的地方,在文件裡她有很多參數可以設定:

  • AudioEncoding:選擇輸出格式
  • EffectsProfileId:按照這邊的說明,他能為不同Device所產生的output做優化。
  • Pitch、SampleRateHertz、SpeakingRate、VolumeGainDb:都是一些在音訊領域常用到的常數
  • ForceSendFields、NullFields:使用在Patch request,可以修改一些default的API request fields。

好,我們就來看看output吧。 output 多了一個output.mp3。我只能讓你們看的到,要聽的話自己操作看看吧~

OK,今天的文章就到這邊,謝謝你的觀看。

今天的github:https://github.com/josephMG/ithelp-2019/tree/Day-19

Back to Blog

Related Posts

View All Posts »

[Day 20] Google Cloud Text-to-Speech - 子系列最終章

今天是這子系列的最後一篇,因為Text-to-Speech沒有AutoML UI介面可以操作,無奈只好讓這邊結束這回合。 按照進度,這篇必須更深入介紹Text-to-Speech API,來看看今天的兩個主題吧。 列出Voice清單 下面這段code可以列出支援的語言,並提供不同種的發聲方式。

[Day 18] Google Cloud Text-to-Speech - 1

今天來介紹Google另一個AI服務:文字轉語音(Text-To-Search)。把一段文字丟入以後,他可以唸出來給你。這套服務目前還沒有AutoML的UI介面可以操作,我們就只能看看API跟demo的操作。 在Text-To-Search裡,Google有使用到WaveNet模型,這套模型用了大量的語音去訓練AI,讓AI能知道哪些字接著哪些字應該怎麼發音,讓聲音更像人說出來的一樣。 更詳細的WaveNet可以看Google這邊的介紹:https://cloud.google.com/text-to-speech/docs/wavenet 還可以聽一下不是WaveNet說的話,跟WaveNet說的話之間的差別

[Day 30] Google AI & ML Products 系列總結

這系列文章出自於一個無窮無盡的bug的解題時間,想不到如何解bug、又想不出要寫什麼主題,參考完大家的方向以後,我發現這類型的文章很少、又很實用,才下定決心透過鐵人賽推廣 Google AI & ML Products。 在這次的挑戰裡,給了自己三個目標: 更熟悉docker 開始玩Golang 入門大部分的Google AI & ML Products 但也因為Google AI & ML Products太多了,所以把它分了很多子系列進行,現在再來回顧一下這次的內容。 前面先來個提醒,如果過程中你們有Deploy model做Online predict的,如果測完一定要記得刪掉,不然你deploy的model就會一直被收費喔。

[Day 29] Google AI Hub - 2

今天要來玩的是AI Hub裡面的Reusing a pipeline component,對Python超不熟的我弄了超久。 這邊會需要run起tensorflow的docker docker pull tensorflow/tensorflow:latest-py3-jupyter docker run -it --rm -v $(realpath ~/notebooks):/tf/notebooks -p 8888:8888 --name jupyter tensorflow/tensorflow:latest-py3-jupyter