A.使用sigmoid作为激活函数B.使用relu作为激活函数C.增加LeakRelu层D.对输入层做批量正则化(BatchNormalization)
多项选择题如果能够获得一个人的聊天记录,预测他的下一句话说什么,可以用keras里面的什么网络模型?()
A.GANB.SimpleRNNC.LSTMD.GRU
多项选择题关于生成式对抗网络(GAN)的说法正确的是()。
A.GAN网络需要人工打标记B.GAN网络中至少要两个模块,Generative Model和Discriminative ModelC.GAN网络可以生成当前的判别器无法识别真假的图片D.GAN网络中的Generative Model和Discriminative Model共同构成了一个巨大的网络
单项选择题要对一批图片进行分类,下面几个神经网络的设计,最好的方案是()。
A.keras.Sequential([keras.Input(shape=(32,0)),keras.layers.Dense(64,activation=”relu”),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])B.keras.Sequential([keras.layers.Conv2D(32,3,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])C.keras.Sequential([keras.layers.Conv2D(32,3,activation=”relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,activation=”relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])D.keras.Sequential([keras.layers.Conv2D(32,3),keras.layers.BatchNormalization(),keras.layers.Activation(“relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3),keras.layers.BatchNormalization(),keras.layers.Activation(“relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,padding=’same’,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dropout(0.5)keras.layers.Dense(10,activation=”softmax”)])
单项选择题关于卷积神经网络的说法,哪个是正确的?()
A.卷积核如果是大小是(3,3),对(10,10)的图像卷积后,输出形状还是(10,10)B.卷积计算输出的形状只取决于padding的方式C.形状(10,10)的图像经过形状为(2,2)的池化核池化后输出大小是(5,5)D.池化层输出大小取决于步长和padding的方式
单项选择题神经网络训练过程中如果进程被终止,说法正确的是()。
A.所有训练过的可变参数都会丢失B.无论是否保存了模型,都可以接着之前的训练结果继续训练C.下一次训练也只能在上一次训练的电脑设备上才能继续D.只要有检查点(checkpoint),随时可以在任意设备上继续上一次的训练