神经网络与深度学习——TensorFlow2.0实战(笔记)(四)(python函数)
生活随笔
收集整理的這篇文章主要介紹了
神经网络与深度学习——TensorFlow2.0实战(笔记)(四)(python函数)
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
函數(shù)(function) :實(shí)現(xiàn)某種特定功能的代碼塊
優(yōu)點(diǎn):程序簡(jiǎn)潔,可重復(fù)調(diào)用、封裝性好、便于共享
類(lèi)別:系統(tǒng)函數(shù)和用戶(hù)自定義函數(shù)
Python內(nèi)置函數(shù)
數(shù)學(xué)運(yùn)算函數(shù)
print(abs(-1)) print(pow(2,3)) print(round(3.1415926,2)) print(round(3.1415926)) print(divmod(5,3))常用Python內(nèi)置函數(shù)
用戶(hù)自定義函數(shù)
#返回一個(gè)參數(shù) a,b形參,b=9為默認(rèn)參數(shù) def add(a,b=9):c=a+breturn c #返回多個(gè)參數(shù) def add_mul(a,b):add=a+bmul=a*breturn add,mul #無(wú)參函數(shù) def sayhello():print("hello") #向函數(shù)內(nèi)部批量傳遞數(shù)據(jù) #使用列表、字典變量作為參數(shù) def sum(list1):sumn=0for i in list1:sumn+=ireturn sumn #當(dāng)使用列表或字典作為函數(shù)參數(shù)時(shí), # 在函數(shù)內(nèi)部對(duì)列表或字典的,會(huì)改變實(shí)參的值。 def listadd(list1):list1.append([6,7,8])return list1 #調(diào)用函數(shù) #形參和實(shí)參分別存儲(chǔ),相互獨(dú)立 #實(shí)參 x=1 y=2 lst_1=[1,2,3,4,5] sayhello() #在內(nèi)部函數(shù)改變形參的值時(shí),實(shí)參的值不會(huì)隨之改變。 print(add(x,y)) print(add(x)) print(add_mul(3,4)) jia,cheng=add_mul(3,4) print("add:",jia,"mul:",cheng) print(sum(lst_1)) print("原始:",lst_1) print(listadd(lst_1)) print("改變:",lst_1)變量的作用域
局部變量(Local Variable):在函數(shù)中定義的變量,僅在定義它的函數(shù)內(nèi)部有效。
全局變量(Global Variable):在函數(shù)體之外定義的變量,在定義后的代碼中都有 效,包括在它之后定義的函數(shù)體內(nèi)。
a=100 # 在函數(shù)外部定義的 變量a是全局變量, # 當(dāng)它與函數(shù)內(nèi)部定 義的局部變量同名時(shí), # 在函數(shù)內(nèi)部失效。 def setn():#在函數(shù)內(nèi)定義的變量a是局部變量,# 它只在函數(shù)體內(nèi)局部有效,并不影響全局變量a的取值。a=9a=a+1print("setn:",a) setn() print(a)錯(cuò)誤寫(xiě)法
課程鏈接:https://www.icourse163.org/course/XUST-1206363802?tid=1206674203
個(gè)人公眾號(hào)
總結(jié)
以上是生活随笔為你收集整理的神经网络与深度学习——TensorFlow2.0实战(笔记)(四)(python函数)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 城投债是地方债吗?两者有什么区别?
- 下一篇: python自动化运维之路_Python